Információ
Az információ latin eredetű szó, amely értesülést, hírt, üzenetet, tájékoztatást jelent. Egyben az informatika alapfogalma. Számos jelentése, kifejtése ismert, különböző tudományágak különböző módon közelítik meg, írják le. Egyértelműen elfogadott definíciója nem ismert.
Általánosságban információnak azt az adatot, hírt tekintjük, amely számunkra releváns és ismerethiányt csökkent. Egyik legleegyszerűsítettebb megfogalmazás szerint az információ nem más, mint a valóság (vagy egy részének) visszatükröződése.[1] Tudományos értelmezését az információelmélet fogalmazza meg.
Története
[szerkesztés]A középkorban az arisztotelészi érzékelés-elmélettel szemben (mely mintegy radarként képzelte pl. a szemet) az az elképzelés alakult ki, hogy a tárgyakról érkező valami az érzékszervet befolyásolja, formáját megváltoztatja, tehát informálja. A misztikus teológia szerint a lélek felemelkedve Isten közelébe, Isten nyomot hagy rajta, átformálja, informálja.
Az információ, mint tudományos fogalom az ipari forradalom idején jelent meg fokozatosan. A fogalom átvételében Rudolf Clausius 1865-ben készült dolgozatát tekinthetjük fordulópontnak. Később – ezt a dolgozatot felhasználva – továbbfejlesztette Ludwig Boltzmann (1894). Szerinte az entrópia azért jelentkezik, mert a zárt rendszerbe nem juthat további anyag, energia és információ.
Olyan személyek munkái jelentették a fejlődést, mint Norbert Wiener, Gábor Dénes, Neumann János, Szilárd Leó, Claude Shannon, Warren Weaver vagy Ralph Vinton Lyon Hartley.
Az 1950-es évektől robbanásszerű fejlődésen megy át a fogalom, mivel számos tudományág felfedezi és használatba veszi. Számtalan kiegészítése, értelmezése lát napvilágot. Olyan szakterületek építik be szaknyelvükbe, mint a kibernetika, biológia, pszichológia, kommunikációs elmélet, nyelvészet, szemiotika, játékelmélet, kódoláselmélet, vezetés- és szervezéselmélet, rendszerelmélet.
Egyéb megközelítések, jelentések
[szerkesztés]Minden tudományos területen igyekeznek megfogalmazni az információ definícióját. A 20. században kialakult és folyamatosan fejlődő információs társadalom pedig, ha lehet, még több lehetséges szempontot hozott magával. A meghatározások között vannak átfedések, de a téma folyamatos kutatását végző tudományágaknak sem sikerült egységes definíciót alkotniuk.
- Köznyelvi értelemben: Hétköznapi életben az információt általában tájékoztatás, felvilágosítás és értesítés jelentésben használjuk. Irodalmi művekben megtalálható az informál kifejezés is.[2]
- Kommunikációelméletben: Az információ kölcsönösen egymásra ható objektumok kommunikációjának objektív tartalma, amely ezen objektumok állapotának megváltozásában nyilvánul meg.
- Hírközlésben: Az információt egy adótól, egy dolog állapotáról vagy egy jelenség lefolyásáról, valamilyen sajátos statisztikai szerkezettel rendelkező jelkészletből összeállított, időben és/vagy térben elrendezett jelek sorozatával továbbít a vevő felé, amely ezt értelmezi. Az információ mindaz, ami kódolható és továbbítható egy arra alkalmas csatornán.
- Matematikában: Az információ számmal mérhető, mint egy adott elem halmazból történő kiválasztásához szükséges eldöntendő (igen/nem) kérdések maximális száma.
- Ismeretelméletben: Az információ olyan tapasztalat vagy ismeret, amely valaki tudásának és ismereteinek rendezettségét megváltoztatja vagy alapvetően befolyásolja. Előfordulhat hogy időlegesen a bizonytalanságot növeli.
- Társadalomtudományban: Az információ a társadalom szellemi kommunikációs rendszerében keletkezett és továbbított hasznos vagy annak minősülő ismeretközlés. Össztársadalmi jelenség, a világ globális problémáinak egyike, hasonlóan az energiához, a környezetvédelemhez.
- Közgazdaságban: Az információ egy olyan szolgáltatás és egyben piaci termék, amely az árucserével ellentétben az átadást követően is mindkét félnél megmarad. A termékek előállítása során a felhasznált anyag és a befektetett munka mellett az elkészítéshez alkalmazott információ is értéket képvisel.
- Biológiában: Az élő szervezeteknél a negatív visszacsatolás révén szerzett információk biztosítják a rendszer stabilitását. Információs gépekként működve képesek fenntartani egy termodinamikailag nagyon valószínűtlen, magas információtartalommal rendelkező rendszert. Az élőlényekben a DNS-ben hordozott genetikai információ szolgálja a faj fennmaradását.
- Fizikában: Minden rendezett struktúra információt hordoz magában, ahol a rend és az információ szoros kapcsolatban áll egymással. A fizikában az energiát munkavégző képességként definiálják, az információ pedig a rendezőképesség. Az információ mérése az entrópia mérésén alapszik.
- Filozófiában: Az információnak akkora jelentősége van, mint az anyagnak és az energiának. A rendszerek, amelyek a világot alkotják, az információs kapcsolatok segítségével szerveződnek egésszé. Fontos különbség viszont, hogy az információra nem érvényes az anyagra és energiára vonatkozó megmaradási tétel, velük ellentétben az információ megsemmisíthető és létrehozható.
Főbb tulajdonságai
[szerkesztés]Az információ önmagában értéket képvisel, ez lehet társadalmi, tudományos, termelési – gazdasági vagy akár hatalmi érték. Az információval képesek vagyunk egy meglévő értéket növelni, így értéknövelő. Mivel értéket képvisel, így profitot, illetve extraprofitot is termelhet. Jellemző tulajdonsága még a mennyisége, minősége, felhasználhatósága, hozzáférhetősége, érthetősége, védelme.[forrás?]
Mennyisége
[szerkesztés]Az információ mennyisége az idővel exponenciálisan nő, ugyanis az információ felhasználásakor nem semmisül meg, többszörösen újrafelhasználható. Ugyanakkor az is igaz, hogy az információ megsemmisíthető, hiszen csak az információt reprezentáló adatokat, jeleket kell törölni.
Minősége
[szerkesztés]Az információ minősége alapvetően a feldolgozás és a tömörítés szintjétől, valamint az információtárolás minőségétől függ. Ide tartozik, hogy az információ mennyire megbízható, pontos, illetve mennyire időszerű.
Entrópia és az információ
[szerkesztés]Az entrópia a fizikában és az informatikában egyaránt használatos fogalom. Az entrópiát – mint a káoszt előidéző erőt – negatív információnak tekintjük, egyúttal a rendszeren belüli információ hiányát is jelenti.[j 1][3]
Mértékegysége
[szerkesztés]Az információmennyiség mértékegysége a bit[j 2] – nem tévesztendő össze a adatmennyiség mértékegységével, amely szintén bit.
Ha egy eldöntendő kérdésre egyforma valószínűséggel adhatók különböző válaszok, akkor az e kérdésre adott bármely válasz pontosan 1 bit információt hordoz.
1 bit információhoz 10−23 J/K entrópiacsökkenés szükséges.[3]
Egyéb ismert mértékegységek
[szerkesztés]A biten kívül két másik mértékegység is ismeretes, de nem terjedtek el széles körben.
Hartley
[szerkesztés]Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az információtartalma (hírérték, entrópia):
hartley (decimális egység)
1 hartley = 1/lg 2 bit (kb. 3,32 bit), 1 hartley = 1/lg e nat (kb. 2,30 nat).
Nat (natural unit)
[szerkesztés]Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az információtartalma:
nat
Az információ más alapegységei a bit és a hartley.
1 nat = 1/ln 2 bit (kb. 1,44 bit),
1 nat = 1/ln 10 hartley (kb. 0,43 hartley).
Hír információtartalma
[szerkesztés]Hartley-képlet
[szerkesztés]Egy hír esetén, amely egy N elemű jelkészletből – legyen ez pl. az ABC – M darab jelet használ és a jeleket véletlenszerűen választjuk ki, a hír információtartalma:
A valóságban ezek a feltételek csak ritkán teljesülnek. A feltételek teljesülésére kitűnő példa a lottóhúzás.
Shannon-képlet
[szerkesztés]Claude Shannon, az információelmélet megalkotója a következő egyenlettel írta le az információtartalmat:
ahol a jelkészletből felhasznált jelek száma, a jelkészletből 1 jel kiválasztásának valószínűsége.
Ha a különböző jelek kiválasztásának valószínűségei nem azonosak, a Shannon-féle entrópiát kell használni.
Tételezzük fel, hogy egy elemű jelhalmaz (például egy független komplett üzenetekből álló készlet) elemei rendre valószínűséggel fordulnak elő, ekkor az egyedi információmennyiségek, azaz várható értéke definíció szerint:
ahol összegezni kell -től -ig. a Shannon-féle entrópia, ezt tekintjük az üzenet információjának. A képlet formailag hasonló a statisztikus fizika entrópia képletéhez.[4]
Jegyzetek
[szerkesztés]- ↑ Dr. Munk Sándor. Katonai informatika a XXI. század elején. Zrínyi Kiadó, 9. o. (2007). ISBN 978-963-327-419-4
- ↑ Móricz Zsigmond: Rokonok. (Hozzáférés: 2021. október 22.) „...a Holub és Társa céget informálhassa.”
- ↑ a b Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 47–48. o. (2005). ISBN 963-327-391-9
- ↑ Végh András, Információ, adat, jel : http://veghandras.webnode.hu/news/informacio-adat-jel/
- ↑ Neumann János javasolta Shannonnak, hogy a fizikában használatos fogalmat használják fel az informatikában, mivel hasonló jelenséget kell leírni.
- ↑ John W. Tukey a kettes alapú logaritmusból kiindulva nevezte el. - Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 17. o. (2005). ISBN 963-327-391-9
Források
[szerkesztés]- Dorozsmai Károly. 60 tétel informatikából. Maxim (2008). ISBN 978 963 9624 436
- Hack Frigyes. Informatikai ismeretek. ELTE TTK (1999) Mikrológia 31
- Hack Frigyes. Fejezetek az informatikából (Egyetemi jegyzet). Tankönyvkiadó (1982)
- Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó (2005). ISBN 963-327-391-9
- Magyari Endre. A hiradástechnika közös alapelvei. Mérnöki Továbbképző Intézet (1945)
- Neumann János. Válogatott előadások és tanulmányok. Közgazdasági és Jogi K. (1965)
- Neumann János. A számológép és az agy. Gondolat Kiadó (1972)
- Wiener, Norbert. Válogatott tanulmányok. Gondolat Kiadó (1974)
- Claude E. Shannon, Warren Weaver. A kommunikáció matematikai elmélete. OMIKK (1986)
- Végh András. Szóbeli tételjavaslatok - Informatika. Nemzeti Tankönyvkiadó (2005). ISBN 963-19-5651-2
- dr. Heinz Zemanek. Információelmélet. Műszaki Könyvkiadó (1956)
- Fülöp Géza. Az információ, 2. bővített és átdolgozott kiadás, Budapest: ELTE Könyvtártudományi - Informatikai Tanszék (1996)
- Drótos László. Informatikai jegyzetek (2005)
- Koltay Tibor. Virtuális, elektronikus, digitális - Elméleti ismeretek a 21. század könyvtárához.. Budapest: Typotex Kft. (2007)
- Komenczi Bertalan: Információ, ember és társadalom. Az információtól az információs társadalomig; EKF Líceum, Eger, 2009 (Médiainformatikai kiadványok)
- Az információ mikrotörténetéhez; szerk. Gulyás László Szabolcs; Gondolat, Bp., 2015 (Információtörténelem)
- Haig Zsolt: Információ, társadalom, biztonság; Nemzeti Közszolgálati Egyetem, Bp., 2015