informationsteori

teori om hur man beräknar hur mycket information som kan överföras i en given teknisk förbindelse. – In­formation ses i teorin som en helt eller delvis icke förut­sägbar följd av ettor och nollor, eller andra tecken. Det spelar ingen roll i denna teori om med­delandet är menings­fullt eller bara en godtycklig serie tecken. (Skillnaden är för övrigt inte självklar. Veckans rätta lottorad kan se ut som en god­tycklig serie tecken, men den innehåller onekligen information.) Teorin handlar om informationsöverföring, inte om inne­hållet i kommunikationen. Oförutsägbarheten kallas för entropi. – Informationsteorin ger ett sätt att be­räkna den största mängd information som kan över­föras under en given tid utan att det med nöd­vändig­het uppstår fel. (Det kan bli fel på grund av till­fälliga tekniska störningar, men det är en annan sak.) Teorin gör också att man kan be­räkna hur mycket en informationsmängd kan kom­pri­me­ras. – Informationsteorin utvecklades av Claude Shannon (1916—2001) på Bell Labs i slutet av 1940‑talet. Den är tillämp­bar på data-, tele- och radiokommunika­tion, men i princip också på alla sätt att över­föra information. Informationsteorin är också tillämp­bar på data­komprimering och kryptering.

[elektronisk kommunikation] [ändrad 12 augusti 2018]