Teória informácie

z Wikipédie, slobodnej encyklopédie
Jump to navigation Jump to search

Teória informácie alebo teória informácií je veda o meraní, kódovaní, prenose, ukladania ale aj o následnom spracovaní a využívaní informácií. Pri teoretickom skúmaní využíva napr. teóriu pravdepodobnosti, lineárnu algebru alebo matematickú štatistiku.

Teóriu informácie založil C. E. Shannon v roku 1948 ako teóriu zaoberajúcu sa problémami uchovávania a prenosom informácií. [1] Zaoberá sa prenosom informácií z technického hľadiska, pomocou elektrotechniky a matematiky. Z tejto teórie vznikli pojmy ako informačná entropia a kapacita kanála.

Referencie[upraviť | upraviť zdroj]

  1. FILIT – zdroj, z ktorého pôvodne čerpal tento článok.

Literatúra[upraviť | upraviť zdroj]