Definicja entropia

Entropia jest pojęciem pochodzącym z greckiego słowa, które można przetłumaczyć jako "powrót" lub "transformacja" (używane w przenośni).

Entropia

W XIX wieku Clausius ukuł koncepcję z zakresu fizyki, aby odnieść się do miary zaburzeń, które można zaobserwować w cząsteczkach gazu. Odtąd koncepcja ta będzie używana z różnymi znaczeniami w wielu naukach, takich jak fizyka, chemia, informatyka, matematyka i lingwistyka .

Niektóre definicje to:

Entropia może być termodynamiczną wielkością fizyczną, która pozwala nam zmierzyć nieużywalną część energii zawartej w systemie . Oznacza to, że ta część energii nie może być wykorzystana do wykonania pracy.

Entropia jest również rozumiana jako miara zaburzeń systemu . W tym sensie wiąże się to z pewnym stopniem jednorodności.

Entropia tworzenia związku chemicznego jest ustalana poprzez pomiar tego, który odpowiada każdemu z jego elementów składowych. Im większa entropia formacji, tym korzystniejsza będzie jej formacja.

W teorii informacji entropia jest miarą niepewności, która istnieje przed zestawem komunikatów (z których tylko jeden zostanie odebrany). Jest to miara informacji, które są niezbędne do zmniejszenia lub wyeliminowania niepewności.

Innym sposobem zrozumienia entropii jest średnia ilość informacji zawartych w przekazywanych symbolach . Słowa takie jak "to" lub "to" są najczęstszymi symbolami w tekście, ale mimo to są tymi, które przyczyniają się do mniejszej ilości informacji. Komunikat będzie zawierał istotne informacje i maksymalną entropię, gdy wszystkie symbole są jednakowo prawdopodobne.

Entropia w dziedzinie językoznawstwa

Sposób, w jaki informacja jest zorganizowana i rozpowszechniona w dyskursie, jest jednym z najbardziej istotnych i podatnych tematów badań w dziedzinie lingwistyki. A dzięki entropii można dokonać głębszej analizy komunikacji.

W przypadku komunikacji pisemnej problem jest prosty do analizy (podstawowe jednostki, litery, są dobrze zdefiniowane); Jeśli chcesz dokładnie zrozumieć komunikat, możesz go dokładnie rozszyfrować i zrozumieć zarówno literał, jak i figuratywność . Ale w języku ustnym rzeczy zmieniają się nieco, przedstawiając pewne komplikacje.

Entropia W dyskursie ustnym niełatwo jest określić podstawowe elementy kodu ; słowa brzmią inaczej w zależności od tego, kto je mówi i, podobnie, mogą mieć różne znaczenia. Nie wystarczy zatem klasyfikować ich w fonemach wokalnych i spółgłoskowych, ponieważ nie pozwoliłoby to nam zrozumieć, w jaki sposób zorganizowana jest informacja, ponieważ na przykład, jeśli fonemy wokalne są tłumione, nie jest możliwe zrozumienie przesłania.

Według badań przeprowadzonych na University of Wisconsin-Madison, dobrym sposobem na wyizolowanie i zrozumienie kodu ustnego jest rozkład widmowy sygnałów dźwiękowych. Dzięki tej technice staramy się zrozumieć, w jaki sposób ślimak filtruje i analizuje, co do niego dociera. Ślimak jest częścią naszych uszu, która ma funkcję przekształcania dźwięków w sygnały elektryczne i wysyłania ich bezpośrednio do mózgu.

W celu przeprowadzenia tego eksperymentu użyto jednostki miary znanej jako "entropia widmowa w skali ślimaka" (CSE), która pozwala ustanowić połączenia między sygnałem a tym, który go poprzedza ; decydowanie, jakie są możliwości przewidywania sygnału rozpoczynającego się od poprzedniego.

Wyniki zwrócone, że im bardziej podobne są dwa sygnały, tym łatwiej przewidzieć drugi ; Oznacza to, że informacje, które pobieramy od drugiego, są prawie zerowe. Podobnie, im bardziej różnią się od siebie, tym większa jest informacja z drugiego sygnału, więc jeśli zostanie wyeliminowana, spowoduje to poważne konsekwencje w rozumieniu dyskursu.

Zalecane