Nyquists lag

även: Nyquist–Shannons samplings­teorem eller bara samplingsteoremet, Nyquist­krite­riet – princip som anger den lägsta samplings-­frekvens som kan användas vid digital inspel­ning av ljud och bild. – Samplingsfrekvensen (Nyquistfrekvensen) måste vara minst dubbelt så hög som den högsta frekvens som ska spelas in (i praktiken något högre). Annars blir inte bara ljudkvaliteten lidande, det uppstår också störande bieffekter (artefakter). Till exempel samplas ljudet till en musik‑CD med en frekvens på 44 100 hertz. Det är mer än dubbelt så mycket som 20 000 hertz, vilket brukar räknas som den högsta frekvens som ett mänskligt öra kan upp­fatta. Detta är en tillämpning av Nyquists lag. – Se också vikning. – Lagen formulerades av den svenskfödde vetenskapsmannen Harry Nyquist (1889—1976, se Wikipedia) som på Bell Labs samarbetade med Claude Shannon. De lade tillsammans grunden till den matematiska teorin om tele- och datakommunika­tion. Shannon och Nyquist formulerade principen ungefär samtidigt. – Harry Ny­quist konstruerade också 1924 en fax (”telefotograf”) som sedan tillverkades av AT&T.

[datakommunikation] [fysik] [lagar] [ändrad 31 januari 2019]

informationsteori

teori om hur man beräknar hur mycket information som kan överföras i en given teknisk förbindelse. – Information ses i teorin som en helt eller delvis icke förutsägbar följd av ettor och nollor, eller andra tecken. Det spelar ingen roll i denna teori om meddelandet är menings­fullt eller bara en godtycklig serie tecken. (Skillnaden är för övrigt inte självklar. Veckans rätta lottorad kan se ut som en godtycklig serie tecken, men den innehåller onekligen information.) Teorin handlar om informationsöverföring, inte om innehållet i kommunikationen. Oförutsägbarheten kallas för entropi. – Informationsteorin ger ett sätt att beräkna den största mängd information som kan över­föras under en given tid utan att det med nödvändighet uppstår fel. (Det kan bli fel på grund av tillfälliga tekniska störningar, men det är en annan sak.) Teorin gör också att man kan be­räkna hur mycket en informationsmängd kan komprimeras. – Informationsteorin utvecklades av Claude Shannon (1916—2001) på Bell Labs i slutet av 1940‑talet. Den är tillämp­bar på data-, tele- och radiokommunikation, men i princip också på alla sätt att överföra information. Informationsteorin är också tillämp­bar på datakomprimering och kryptering.

[elektronisk kommunikation] [ändrad 12 augusti 2018]

Shannon, Claude

Claude Shannon.

amerikansk matematiker (1916—2001). – Shannon skapade 1948 informationsteorin med sin skrift ”A mathematical theory of communication” (länk). I den skriften lade han den matematiska grunden för förståelsen av tele-, radio- och datakommunikation. Han besvarade frågan om vad som krävs för att man ska kunna sända ett meddelande från avsändare till mot­tagare utan att för­lora information, och hur mycket information som kan sändas i en given förbindelse per tids­enhet. Man kan också säga att han mate­matiskt beskrev hur man skiljer signalen från bruset. Shannon omarbetade 1949 tillsammans med Warren Weaver artikeln till en bok, The mathematical theory of information. – Shannon påpekade senare att hans teori inte handlar om information, utan om informa­tions­­över­föring: teorin gör ingen skillnad mellan menings­fulla och menings­lösa meddelanden. (Den skillnaden är för övrigt inte alltid uppenbar: ett krypterat meddelande kan se ut som en menings­lös sifferserie.) – 1949 tillämpade Shannon samma tänke­sätt på kryptering i Communication theory of secrecy systems (länk). – Claude Shannon blev doktor i mate­matik vid MIT 1941, och anställdes samma år vid Bell Labs, där han stannade till 1972. Han blev pro­fessor vid MIT 1956, och blev emeritus 1978. – The Shannon limit – Shannongränsen – den teo­re­tiska övre gränsen för hur mycket information som kan över­föras per sekund i en given förbindelse. Inga tekniska förbättringar kan höja kapa­ci­teten över Shannon­gränsen, utan det krävs att man ­ändrar själva förbindelsen. En annan lösning är att, där det är möjligt, kom­pri­mera signalen med inexakt komprimering. Då kan man sken­bart komma över Shannon­gränsen. – Video från Bell Labs om Shannon och Shannongränsen, klicka här. – Artikel på MIT:s webbsidor om Shannon och Shannongränsen, klicka här.

[claude shannon] [elektronisk kommunikation] [personer] [ändrad 18 november 2017]