» »

entropija

entropija

barbarat ::

Pozdravljeni,
a mi zna kdo povedat kakšen je pomen entropije?
hvala:\
barbara tavčar

jype ::

Entropija sistema pove, koliko nakljucnih informacij sistem vsebuje.

V elektrotehniki in racunalnistvu se entropijo ponavadi pobira iz suma v okolici in casovnih odmikov nakljucnih dogodkov.

barbarat ::

hvala!
kaj pa pri organizaciji in arhitekturi računalniških sistemov?
lp
barbara tavčar

gzibret ::

A misliš elektronsko ali termodinamično?

Termodinamsko je sprememba entropije sistema enaka spremembi toplote (notranje energije) sistema pri konstantni temperaturi (dS=dQ/T). Je mera za urejenost sistema. Večja je urejenost, manjša je entropija (in obratno). Teorija pravi, da vsi procesi v naravi težijo k povečevanju entropije oz. k večanju nereda sistema.
Vse je za neki dobr!

Thomas ::

Vsak binarni niz ima svojo entropijo. Pomeni pa preprosto logaritem iz na koliko načinov lahko permutiramo tiste 1 in 0 v tem nizu, da se niz ne spremeni.

Vzemimo binarno niz "101". Enki lahko zamenjamo, pa se nič ne spremeni. Torej 2 permutaciji. Torej logaritem (dvojiški) iz 2. Torej 1.

ČE enke med sabo ločujemo. Če jih ne (fermioni, bosoni), je entropija logaritem iz 1, je 0.

To je matematična entropija. Fizikalna je samo konkretizacija tega sistema. Ker vse se da prikazati kot zaporedje 0 in 1.

kow ::

V teoriji informacij je entropija definirana kot mera nedoločenosti sistema oz. vira.
Bolj nedoločen je tisti naključni sistem, za katerega je težavnostna stopnja rešitve naloge napovedi stanja sistema večja, manj pa tisti, za katerega je težavnostna stopnja naloge napovedi manjša.

Zgodovina sprememb…

  • spremenil: kow ()

zigi ::

Torej če je entropija 0, pomeni to da je sistem popolnoma določen (nima nobenih naključij)?

Glede onih nizov z enkami in ničlami - če ima niz 1 znak, potem je največja entropija 0,
2 znaka = log[2]2 = 1
3 znaki = log[2]3 = 1,585
4 znaki = log[2]6 = 2,585
5 znakov = log[2]10 = 3,322
...
Je to prav?

Zgodovina sprememb…

  • spremenil: zigi ()

Thomas ::

Ni čisto prav, ampak v tapravo smer pa razmišljaš.

Entropija je logaritem števila mikraostanj za makrostanje.Na koliko načinov lahho binarno zapišeš 5, če imaš eno 0 in dve 1? Na dva načina. Entropija števila 5 je za tole definicijo 1.

Tle se zaćne, šele.

Na koliko načinov pa imaš lahko dve 1 in eno 0 iz treh binark?

Na 3. Torej entropija je dvojiški logaritem iz 3.

Z enake verjetnosti obeh - 0 in 1 - seveda. Sicer se mau zakomplicira. P odvisno, če so biti fernioni .. itd.
Man muss immer generalisieren - Carl Jacobi

SavoKovac ::

Entropija je lahko zelo subjektivne narave.
Predpostaviš, da obstajajo stanja "urejenosti", kjer je entropija praktično enaka nič. Če ne gre drugače, si izmisliš takšno definicijo entropije oz. tak sistem, da so zgornje misli smiselne. [Fiziki naj si pogrizejo kocine na "toes"] >:D
Potem bi lahko point-relativno entropijo definiral kot minimum energije, ki jo rabiš, da iz trenutnega stanja preideš v želeno stanje. (metrika)
Absolutno entropijo danega stanja pa kot min{vse point-entropije}. (norma)
Čudovit primer prostora z metrikami, normami.


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Podatek vs. Informacija (strani: 1 2 3 )

Oddelek: Znanost in tehnologija
10811263 (6420) kunigunda
»

Najmanjša mera informacije

Oddelek: Znanost in tehnologija
443388 (1833) Yggdrasil
»

Entropija

Oddelek: Znanost in tehnologija
163812 (2763) Thomas
»

Tehtni in verodostojni argumenti da je zavest produkt koherentnega delovanja živčnih (strani: 1 2 )

Oddelek: Znanost in tehnologija
966456 (4684) drejc
»

ločevanje zraka

Oddelek: Znanost in tehnologija
181688 (1369) frudi

Več podobnih tem