Nyquists lag

även: Nyquist–Shannons samplings­teorem eller bara samp­lings­teoremet, Nyquist­krite­riet – princip som anger den lägsta samp­lings-­frekvens som kan an­vändas vid digital in­spel­ning av ljud och bild. – Samplingsfrekvensen (Nyquist­­frekvensen) måste vara minst dubbelt så hög som den högsta frekvens som ska spelas in (i praktiken något högre). Annars blir inte bara ljud­kvaliteten lidande, det uppstår också störande bieffekter (artefakter). Till exempel samplas ljudet till en musik‑CD med en frekvens på 44 100 hertz. Det är mer än dubbelt så mycket som 20 000 hertz, vilket brukar räknas som den högsta frekvens som ett mänskligt öra kan upp­fatta. Detta är en tillämpning av Nyquists lag. – Se också vikning. – Lagen formulerades av den svensk­­födde veten­­skaps­mannen Harry Nyquist (1889—1976, se Wikipedia) som på Bell Labs samarbetade med Claude Shannon. De lade tillsammans grunden till den matematiska teorin om tele- och datakommunika­tion. Shannon och Nyquist formulerade principen ungefär samtidigt. – Harry Ny­quist konstruerade också 1924 en fax (”tele­­­foto­­graf”) som sedan tillverkades av AT&T.

[datakommunikation] [fysik] [lagar] [ändrad 31 januari 2019]

informationsteori

teori om hur man beräknar hur mycket information som kan överföras i en given teknisk förbindelse. – In­formation ses i teorin som en helt eller delvis icke förut­sägbar följd av ettor och nollor, eller andra tecken. Det spelar ingen roll i denna teori om med­delandet är menings­fullt eller bara en godtycklig serie tecken. (Skillnaden är för övrigt inte självklar. Veckans rätta lottorad kan se ut som en god­tycklig serie tecken, men den innehåller onekligen information.) Teorin handlar om informationsöverföring, inte om inne­hållet i kommunikationen. Oförutsägbarheten kallas för entropi. – Informationsteorin ger ett sätt att be­räkna den största mängd information som kan över­föras under en given tid utan att det med nödvändighet uppstår fel. (Det kan bli fel på grund av till­fälliga tekniska störningar, men det är en annan sak.) Teorin gör också att man kan be­räkna hur mycket en informationsmängd kan komprimeras. – Informationsteorin utvecklades av Claude Shannon (1916—2001) på Bell Labs i slutet av 1940‑talet. Den är tillämp­bar på data-, tele- och radiokommunika­tion, men i princip också på alla sätt att över­föra information. Informationsteorin är också tillämp­bar på data­komprimering och kryptering.

[elektronisk kommunikation] [ändrad 12 augusti 2018]

Shannon, Claude

Claude Shannon.

amerikansk matematiker (1916—2001). – Shannon skapade 1948 informationsteorin med sin skrift ”A mathematical theory of communication” (länk). I den skriften lade han den matematiska grunden för förståelsen av tele-, radio- och datakommunikationn. Han besvarade frågan om vad som krävs för att man ska kunna sända ett meddelande från avsändare till mot­tagare utan att för­lora information, och hur mycket information som kan sändas i en given förbindelse per tids­enhet. Man kan också säga att han mate­matiskt beskrev hur man skiljer signalen från bruset. Shannon omarbetade 1949 tillsammans med Warren Weaver artikeln till en bok, The mathematical theory of information. – Shannon påpekade senare att hans teori inte handlar om information, utan om informa­tions­­över­föring: teorin gör ingen skillnad mellan menings­fulla och menings­lösa meddelanden. (Den skillnaden är för övrigt inte alltid uppenbar: ett krypterat meddelande kan se ut som en menings­lös sifferserie.) – 1949 tillämpade Shannon samma tänke­sätt på kryptering i Communication theory of secrecy systems (länk). – Claude Shannon blev doktor i mate­matik vid MIT 1941, och anställdes samma år vid Bell Labs, där han stannade till 1972. Han blev pro­fessor vid MIT 1956, och blev emeritus 1978. – The Shannon limit – Shannongränsen – den teo­re­tiska övre gränsen för hur mycket information som kan över­föras per sekund i en given förbindelse. Inga tekniska förbättringar kan höja kapa­ci­teten över Shannon­gränsen, utan det krävs att man ­ändrar själva förbindelsen. En annan lösning är att, där det är möjligt, kom­pri­mera signalen med inexakt komprimering. Då kan man sken­bart komma över Shannon­gränsen. – Video från Bell Labs om Shannon och Shannongränsen, klicka här. – Artikel på MIT:s webbsidor om Shannon och Shannongränsen, klicka här.

[claude shannon] [elektronisk kommunikation] [personer] [ändrad 18 november 2017]