Jump to content

Entropia

Nga Wikipedia, enciklopedia e lirë

 Entropia është një koncept shkencor, si dhe një veti fizike e matshme, që më së shpeshti shoqërohet me një gjendje çrregullsie, rastësie ose pasigurie. Termi dhe koncepti përdoren në fusha të ndryshme, nga termodinamika klasike, ku u përdor për herë të parë, te përshkrimi mikroskopik i natyrës në fizikën statistikore dhe deri te parimet e teorisë së informacionit . Ka gjetur aplikime të gjera në kimi dhe fizikë, në sistemet biologjike dhe lidhjen e tyre me jetën, në kozmologji, ekonomi, sociologji, shkencën e motit, ndryshimet klimatike dhe sistemet e informacionit duke përfshirë transmetimin e informacionit në telekomunikacion. [1]

Koncepti termodinamik u referua nga shkencëtari dhe inxhinieri skocez William Rankine në 1850 me emrat funksioni termodinamik dhe potenciali i nxehtësisë . [2] Në 1865, fizikani gjerman Rudolf Clausius, një nga themeluesit kryesorë të fushës së termodinamikës, e përcaktoi atë si herësin e një sasie pambarimisht të vogël të nxehtësisë në temperaturën e çastit. Ai fillimisht e përshkroi atë si përmbajtje transformim, në gjermanisht Verwandlungsinhalt, dhe më vonë shpiku termin entropi nga një fjalë greke për transformim . Duke iu referuar strukturës dhe përbërjes mikroskopike, në vitin 1862, Clausius e interpretoi konceptin si kuptim i disgregimit/ çmbledhjes .

Pasojë e entropisë është se disa procese janë të pakthyeshme ose të pamundura, përveç kërkesës për të mos cenuar ruajtjen e energjisë, kjo e fundit e shprehur në ligjin e parë të termodinamikës . Entropia është thelbësore për ligjin e dytë të termodinamikës, i cili pohon se entropia e sistemeve të izoluara të mbetura në evolucionin të vetëvetishëm nuk mund të ulet me kalimin e kohës, pasi ato arrijnë gjithmonë në një gjendje ekuilibri termodinamik, ku entropia është maksimale.

Fizikani austriak Ludwig Boltzmann i dha shpjegim entropisë si masë e numrit të renditjeve të mundshme mikroskopike ose gjendjeve të atomeve dhe molekulave individuale të një sistemi që përputhen me gjendjen makroskopike të sistemit. Në këtë mënyrë ai prezantoi konceptin e çrregullimit statistikor dhe shpërndarjes së probabilitetit në një fushë të re të termodinamikës, të quajtur mekanika statistikore, dhe gjeti lidhjen midis ndërveprimeve mikroskopike, të cilat luhaten rreth një konfigurimi mesatar, me sjelljen e vëzhgueshme makroskopike, në formën e një ligji të thjeshtë logaritmik, me një konstante përpjestueshmërie, konstantja Boltzmann, që është bërë një nga konstantet universale përcaktuese për Sistemin Ndërkombëtar Ndërkombëtar të Njësive (SI).

Në vitin 1948, shkencëtari i Bell Labs, Claude Shannon, zhvilloi koncepte të ngjashme statistikore të matjes së pasigurisë dhe shumëfishimit mikroskopik me problemin e humbjeve të rastësishme të informacionit në sinjalet e telekomunikacionit. Me sugjerimin e John von Neumann- it, Shannon e quajti këtë entitet të informacionit të munguar në mënyrë analoge me përdorimin e tij në mekanikën statistikore si entropi, dhe lindi fushën e teorisë së informacionit . Ky përshkrim është identifikuar si një përkufizim universal i konceptit të entropisë. [3]

  1. ^ Wehrl, Alfred (1 prill 1978). "General properties of entropy". Reviews of Modern Physics. 50 (2): 221–260. Bibcode:1978RvMP...50..221W. doi:10.1103/RevModPhys.50.221. {{cite journal}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  2. ^ Truesdell, C. (1980). The Tragicomical History of Thermodynamics, 1822–1854. New York: Springer-Verlag. fq. 215. ISBN 0387904034 – nëpërmjet Internet Archive. {{cite book}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  3. ^ Ben-Naim, Arieh (2008). A Farewell to Entropy: Statistical Thermodynamics Based on Information. Singapore: World-Scientific Publishing. ISBN 9789812707062. {{cite book}}: Mungon ose është bosh parametri |language= (Ndihmë!)