princip som anger den lägsta samplings-frekvens som kan användas vid digital inspelning av ljud och bild. – Samplingsfrekvensen (Nyquistfrekvensen) måste vara minst dubbelt så hög som den högsta frekvens som ska spelas in (i praktiken något högre). Annars blir inte bara ljudkvaliteten lidande, det uppstår också störande bieffekter (artefakter). Till exempel samplas ljudet till en musik‑CD med en frekvens på 44 100 hertz. Det är mer än dubbelt så mycket som 20 000 hertz, vilket brukar räknas som den högsta frekvens som ett mänskligt öra kan uppfatta. Detta är en tillämpning av Nyquists lag. – Kallas också: Nyquist–Shannons samplingsteorem, Nyquistkriteriet eller bara samplingsteoremet. – Se också vikning. – Lagen formulerades av den svenskfödde vetenskapsmannen Harry Nyquist (1889—1976, se Wikipedia) som på Bell Labs samarbetade med Claude Shannon. De lade tillsammans grunden till den matematiska teorin om tele- och datakommunikation. Shannon och Nyquist formulerade principen ungefär samtidigt. – Harry Nyquist konstruerade också 1924 en fax (”telefotograf”) som sedan tillverkades av AT&T.
teori om hur man beräknar hur mycket information som kan överföras i en given teknisk förbindelse. – Information ses i informationsteori som en helt eller delvis icke förutsägbar följd av ettor och nollor, eller andra tecken. Det spelar ingen roll i denna teori om meddelandet är meningsfullt eller bara en godtycklig serie tecken. (Skillnaden är för övrigt inte självklar. Veckans rätta lottorad kan se ut som en godtycklig serie tecken, men den innehåller onekligen information.) Teorin handlar om informationsöverföring, inte om innehållet i kommunikationen. Oförutsägbarheten kallas för entropi. – Informationsteorin ger ett sätt att beräkna den största mängd information som kan överföras under en given tid utan att det med nödvändighet uppstår fel. (Det kan bli fel på grund av tillfälliga tekniska störningar, men det är en annan sak.) Teorin gör också att man kan beräkna hur mycket en informationsmängd kan komprimeras. – Informationsteorin utvecklades av Claude Shannon(1916—2001) på Bell Labs i slutet av 1940‑talet. Den är tillämpbar på data-, tele- och radiokommunikation, men i princip också på alla sätt att överföra information. Informationsteorin är också tillämpbar på datakomprimering och kryptering.
(1916—2001) – skapare av informationsteorin. – I sin skrift ”A mathematical theory of communication” från 1948(länk) lade Shannon den matematiska grunden för förståelsen av tele-, radio- och datakommunikation. Han besvarade frågan om vad som krävs för att man ska kunna sända ett meddelande från avsändare till mottagare utan att förlora information, och hur mycket information som kan sändas i en given förbindelse per tidsenhet. Man kan också säga att han matematiskt beskrev hur man skiljer signalen från bruset. – Shannon omarbetade 1949 tillsammans med Warren Weaver artikeln till en bok, The mathematical theory of information. – Shannon påpekade senare att hans teori inte handlar om information, utan om informationsöverföring: teorin gör ingen skillnad mellan meningsfulla och meningslösa meddelanden. (Den skillnaden är för övrigt inte alltid uppenbar: ett krypterat meddelande kan se ut som en meningslös sifferserie.) – 1949 tillämpade Shannon samma tänkesätt på kryptering i Communication theory of secrecy systems(länk). – Claude Shannon blev doktor i matematik vid MIT1941, och anställdes samma år vid Bell Labs, där han stannade till 1972. Han blev professor vid MIT 1956, och blev emeritus 1978. – The Shannon limit – Shannongränsen – den teoretiska övre gränsen för hur mycket information som kan överföras per sekund i en given förbindelse. Inga tekniska förbättringar kan höja kapaciteten över Shannongränsen, utan det krävs att man ändrar själva förbindelsen. En annan lösning är att, där det är möjligt, komprimera signalen med inexakt komprimering. Då kan man skenbart komma över Shannongränsen. – Video från Bell Labs om Shannon och Shannongränsen, klicka här. – Artikel på MIT:s webbsidor om Shannon och Shannongränsen, klicka här.