teori om hur man beräknar hur mycket information som kan överföras i en given teknisk förbindelse. – Information ses i informationsteori som en helt eller delvis icke förutsägbar följd av ettor och nollor, eller andra tecken. Det spelar ingen roll i denna teori om meddelandet är meningsfullt eller bara en godtycklig serie tecken. (Skillnaden är för övrigt inte självklar. Veckans rätta lottorad kan se ut som en godtycklig serie tecken, men den innehåller onekligen information.) Teorin handlar om informationsöverföring, inte om innehållet i kommunikationen. Oförutsägbarheten kallas för entropi. – Informationsteorin ger ett sätt att beräkna den största mängd information som kan överföras under en given tid utan att det med nödvändighet uppstår fel. (Det kan bli fel på grund av tillfälliga tekniska störningar, men det är en annan sak.) Teorin gör också att man kan beräkna hur mycket en informationsmängd kan komprimeras. – Informationsteorin utvecklades av Claude Shannon (1916—2001) på Bell Labs i slutet av 1940‑talet. Den är tillämpbar på data-, tele- och radiokommunikation, men i princip också på alla sätt att överföra information. Informationsteorin är också tillämpbar på datakomprimering och kryptering.
[elektronisk kommunikation] [ändrad 12 augusti 2018]