informationsteori

teori om hur man beräknar hur mycket information som kan överföras i en given teknisk förbindelse. – Information ses i informationsteori som en helt eller delvis icke förutsägbar följd av ettor och nollor, eller andra tecken. Det spelar ingen roll i denna teori om meddelandet är menings­fullt eller bara en godtycklig serie tecken. (Skillnaden är för övrigt inte självklar. Veckans rätta lottorad kan se ut som en godtycklig serie tecken, men den innehåller onekligen information.) Teorin handlar om informationsöverföring, inte om innehållet i kommunikationen. Oförutsägbarheten kallas för entropi. – Informationsteorin ger ett sätt att beräkna den största mängd information som kan över­föras under en given tid utan att det med nödvändighet uppstår fel. (Det kan bli fel på grund av tillfälliga tekniska störningar, men det är en annan sak.) Teorin gör också att man kan be­räkna hur mycket en informationsmängd kan komprimeras. – Informationsteorin utvecklades av Claude Shannon (19162001)Bell Labs i slutet av 1940‑talet. Den är tillämp­bar på data-, tele- och radiokommunikation, men i princip också på alla sätt att överföra information. Informationsteorin är också tillämp­bar på datakomprimering och kryptering.

[elektronisk kommunikation] [ändrad 12 augusti 2018]