Shannon, Claude

Claude Shannon.

amerikansk matematiker (1916—2001). – Shannon skapade 1948 informationsteorin med sin skrift ”A mathematical theory of communication” (länk). I den skriften lade han den matematiska grunden för förståelsen av tele-, radio- och datakommunikationn. Han besvarade frågan om vad som krävs för att man ska kunna sända ett meddelande från avsändare till mot­tagare utan att för­lora information, och hur mycket information som kan sändas i en given förbindelse per tids­enhet. Man kan också säga att han mate­matiskt beskrev hur man skiljer signalen från bruset. Shannon omarbetade 1949 tillsammans med Warren Weaver artikeln till en bok, The mathematical theory of information. – Shannon påpekade senare att hans teori inte handlar om information, utan om informa­tions­­över­föring: teorin gör ingen skillnad mellan menings­fulla och menings­lösa meddelanden. (Den skillnaden är för övrigt inte alltid uppenbar: ett krypterat meddelande kan se ut som en menings­lös sifferserie.) – 1949 tillämpade Shannon samma tänke­sätt på kryptering i Communication theory of secrecy systems (länk). – Claude Shannon blev doktor i mate­matik vid MIT 1941, och anställdes samma år vid Bell Labs, där han stannade till 1972. Han blev pro­fessor vid MIT 1956, och blev emeritus 1978. – The Shannon limit – Shannongränsen – den teo­re­tiska övre gränsen för hur mycket information som kan över­föras per sekund i en given förbindelse. Inga tekniska förbättringar kan höja kapa­ci­teten över Shannon­gränsen, utan det krävs att man ­ändrar själva förbindelsen. En annan lösning är att, där det är möjligt, kom­pri­mera signalen med inexakt komprimering. Då kan man sken­bart komma över Shannon­gränsen. – Video från Bell Labs om Shannon och Shannongränsen, klicka här. – Artikel på MIT:s webbsidor om Shannon och Shannongränsen, klicka här.

[claude shannon] [elektronisk kommunikation] [personer] [ändrad 18 november 2017]

Turing, Alan

Alan Turing.
Alan Turing.

engelsk matematiker och datorpionjär (1912—1954). – Alan Turing beskrev 1936 en teoretisk modell av ett dator­­program och en dator, det som numera kallas för en Turingmaskin. Det gjorde han i en matematisk-logisk upp­sats om det så kallade stopproblemet. Artikeln har blivit en klassiker inom dator­veten­skapen. (Läs också om Alonzo Church och Church-Turings hypotes.) – Under andra världs­­kriget arbetade Turing på Bletchley Park med att knäcka tyskarnas kryptering. Han konstru­erade där maskinen ”The Bombe”, som de­­chiff­re­rade meddelanden som hade krypterats med tyskarnas krypteringsapparat Enigma, men han var på sin höjd inspira­tör till datorn Colossus. – Efter kriget, 1946, konstruerade han datorn ACE, och 1948 deltog han i konstruktionen av Man­chester Mark I. – 1950 beskrev han det som sedan dess kallas för Turingtestet i en artikel som blev en ban­­brytare inom området arti­ficiell intelligens. – I början av 1950‑talet studerade han också morfogenetik, det som nu kallas för fraktala former. Alan Turing var troligen också den första som programmerade en dator till att spela musik. Se denna artikel från British Museum med ljudfil (en bit ner på sidan). – 1952 dömdes Turing för homosexuella handlingar, och 1954 dog han i vad som då tolkades som själv­­mord. (Att det var själv­­mord ifråga­­sattes 2012 av professor Jack Copeland, se denna artikel.) – I september 2009 be­klagade Stor­britanniens dåvarande premiärminister Gordon Brown officiellt hur Turing hade behandlats. Han er­kände att utan Turings insatser kunde andra världskrigets förlopp ha blivit mycket annorlunda. På jul­afton 2013 benådades Turing postumt. – Se här och här (pdf för ner­laddning). – Turingpriset, A M Turing Award, är upp­kallat efter Alan Turing. – Standard­­biografin över Alan Turing är Alan Turing: The Enigma (1983) av Andrew Hodges (länk). David Lager­­crantz har skrivit en roman om Alan Turing, Synda­fall i Wilmslow (2009, se intervju i Computer Sweden). Filmen Breaking the code från 1996 handlar om Turings liv, liksom The imitation game från 2014 – se IMdB (länk). – Se också The Turing digital archive och Andrew Hodges webb­plats Alan Turing: the enigma. – En av Turings anteckningsböcker såldes i april 2015 på auktion i New York för 1 025 000 dollar.

[alan turing] [datorvetenskap] [it-historia] [matematik och logik] [personer] [ändrad 26 april 2019]

cybernetik

studiet av styrsystem i maskiner, människor och levande varelser, sär­skilt kommu­nika­tion och återkoppling. Nära besläktat med system­­teori och informations­teori samt datorvetenskap. Ordet används numera sällan som benämning på en vetenskaplig disciplin. – Benämningen cybernetik i denna betydelse infördes 1948 av Norbert Wiener, och den har gett oss kort­f­ormen cyber. Den franska veten­­skaps­mannen André Marie Ampère (1775—1836, se Wikipedia) myntade ordet redan 1831, men då i be­tydelsen vetenskapen om politisk ledning av människor. – Enligt vetenskapshistorikern David A Mindell  (länk) var det som Wiener döpte till cybernetik en sammanställning av kunskaper och erfarenheter som redan var kända och tillämpade av praktiker – se hans bok Between human and machine från 2002 (länk). – Ordet cybernetik kommer av grekiska kybernetes – styr­man.

[cyber] [datorvetenskap] [ändrad 18 april 2020]

von Neumann-arkitektur

den uppbyggnad av datorer som har varit standard sedan 1940-talet. Data och program lagras i samma minne – sammanhanget avgör vad som är vad. Arki­tek­turen är upp­kallad efter mate­ma­tikern John von Neumann, men andra forskare var med och utvecklade principerna. De första datorerna som tillämp­ade von Neumann-arkitekturen var brittiska Small-scale experimental machine från 1948 och ameri­kan­ska IAS-maskinen från 1952, som blev mönster­bildande. – von Neumann kände till Alan Turings idéer, men han ville göra ett dator­system som var mindre intellektuellt krävande för pro­­gram­merarna. Prin­ciperna beskrevs först i rapporten First draft on the Edvac (länk) från 1945 (se Edvac). – John von Neumann delade in datorn i fyra huvud­­delar, nämligen (med moderna termer) pro­cessor, minne, styrning och användargränssnitt. Detta var inget nytt: samma delar ingår i alla datorer, inklusive Charles Babbages analysmaskin, som ritades hundra år tidigare. Mer speci­fikt för von Neumann‑arkitekturen är att den:

  • – har ett gemensamt minne för program­instruktioner och data. Vad som är vad avgörs av sammanhanget. Ett annat känne­tecken för von Neumann‑arkitekturen är:
  • – att beräkningarna sker sekventiellt. Programinstruktionerna verk­ställs en i taget, data och instruktioner hämtas från minnet ett i taget.

– Under 1940-talet fanns en konkurrerande arkitektur, Harvardarkitekturen, som tydligt skilde mellan instruktioner och data. Det har gjorts många försök att utveckla nya arkitekturer. Främst gäller det att komma ifrån ”von Neu­mann-flask­­halsen”, den sek­ven­ti­ella inläsningen av data och instruktioner från minnet. Det går ju inte att läsa in instruktioner och data samtidigt, vilket gick i Harvard­arkitekturen. John von Neumann insåg för­delarna med parallell data­behandling, men han ansåg att det skulle bli för besvärligt att genom­föra. Numera är parallellism vanligt, eftersom datorer ofta har flera processorer, eller fler­kärniga pro­cessorer. Principen om gemen­samt minne har också ifråga­­satts, eftersom programspråk tydligt skiljer mellan data och instruktioner. – Efter­­som von Neumann‑arkitekturen hanterar instruktioner och data i samma minne skulle man kunna skriva program som för­ändrar sin egen kod, men knappast någon utnyttjar den möjlig­heten.

[datorer] [it-historia] [ändrad 23 januari 2018]