Kerckhoffs princip

Auguste Kerckhoffs.

principen att säkerheten i ett krypteringssystem ska hänga enbart på att man hemlighåller nyckeln. Man ska däremot inte be­trakta krypteringsalgoritmen som en hemlig­­het. – Principen formulerades 1883 av Auguste Kerckhoffs (1835—1903, namnet slutar på s, mer i Wikipedia) i boken La crypto­graphie militaire (länk till den franska texten). – På Kerckhoffs tid var principen främst praktiskt grundad: om säkerheten hänger på att al­goritmen är hemlig, och fienden ändå får tag i algoritmen, måste man byta al­goritm, vilket är svårt. Men om säker­heten hänger bara på nyckeln be­höver man bara byta nyckel, vilket är enklare. Man kan också byta nyckel regelbundet, men man kan inte byta al­goritm särskilt ofta. – Senare till­kom argumentet att algoritmen bör vara öppen för att den ska kunna granskas av fack­folk så att eventuella brister upp­dagas. – Kerckhoffs princip är allmänt accepterad, och hemliga krypteringsalgoritmer brukar ses med misstänksam­het. Ameri­kanska statens offi­ci­ella al­go­ritm AES är till exempel öppen, liksom den mycket spridda RSA‑algoritmen. – En följdsats av Kerckhoffs princip är att säker­heten ökar ju färre hemlig­heter man har. Resonemanget kan också överföras på principen om öppen käll­kod. – Läs också om Schneiers lag.

[kryptering] [lagar] [ändrad 29 juni 2017]

Wirths lag

säger att ”i samma takt som hård­varan blir snabbare så blir mjuk­varan långsammare”. – Upp­kallad efter Nicklaus Wirth (länk), numera pen­sion­erad forskare på tekniska hög­­skolan i Zürich.

[lagar] [nicklaus wirth] [ändrad 13 maj 2019]

Brooks lag

(Brooks’s law)”Om man sätter in mer personal i ett försenat mjuk­varu­projekt tar det ännu längre tid.” Även: ”Nio kvinnor kan inte få ett barn på en månad.” – Lagen har namn efter Fred Brooks, för­fattare till boken The Mythical Man‑Month, som kom ut 1975. Han skrev där att arbetet som ut­rättas i ett pro­jekt står i direkt pro­portion till an­talet med­arbetare, men pro­jektets kom­plex­itet ökar med kvadraten på an­talet medarbetare. Alltså tar det längre tid ju fler som är med. – Fred Brooks (1931) var anställd på IBM fram till 1965, och ledde där arbetet på operativ­systemet till stor­datorn System 360. 1965 blev han pro­fessor i datorveten­skap på universitetet i Chapel Hill, North Carolina (länk). – Brooks fick 1999 Turingpriset, se denna länk).

[lagar] [projektarbete] [ändrad 17 oktober 2019]

Zipfs lag

Diagram över antal förekomster av de vanligaste orden i engelska. Den snabbt fallande kurvan som senare planar ut illustrerar Zipfs lag.

säger att frekvensen av ett värde i en stor mängd data ofta står i proportion till värdets plats i rang­ordningen. – Det vanligaste värdet brukar vara ungefär dubbelt så vanligt som det näst vanligaste, ungefär tre gånger så vanligt som det värde som är nummer tre på listan, och så vidare. – Lagen är uppkallad efter språkvetaren George Kingsley Zipf (1902—1950, se Wikipedia), som upptäckte att den gäller för ordfrekvenser i stora textmassor. – Exempel: i modern engelska är the det vanligaste ordet, 6,9 procent av alla ord. Näst vanligast är of med 3,6 procent och tredje vanligast är and med 2,8 procent. Som synes följer för­del­ningen inte Zipfs lag exakt, men det påstod Zipf inte heller att den skulle göra. Hans lag beskriver en tendens. – Lagen kallas också för Zipf‑Mandel­brots lag efter Benoit Mandelbrot, som utvidgade prin­cipens tillämpning. Samma för­hål­lande mellan plats i ranking­listan och frekvens av före­komster har nämligen iakt­tagits för andra före­te­elser. Man har också upptäckt att förhållandet inte alltid är rakt (alltså inte följer mönstret 1/1, 1/2, 1/3…), utan att nämnaren ofta måste multi­pli­ce­ras med en konstant för att lagen ska gälla. Alltså till exempel 1/4, 1/8, 1/12… – Zipfs lag är en potenslag (power law). – Lagen har också tillämpats på analys av sociala nätverk. Enkelt uttryckt: de kontakter som vi har minst kontakt med är praktiskt taget värde­lösa. – Se också drakkung, långa svansen, svart svan och Pareto­prin­cipen.

[lagar] [statistik] [ändrad 25 februari 2018]

Sturgeon’s revelation

Sturgeons insikt”90 procent av allting är dynga.” – In­sikten drabbade science fiction-för­fat­taren Theodore Sturgeon (se Wikipedia) 1958. Han bemötte på­stå­endet att 90 pro­cent av all science fiction är dynga med att så är det med allting. – Kallas ibland för Sturgeons lag, men det är namnet på en annan lag, som lyder ”Nothing is always absolutely so”.

[lagar] [ändrad 13 november 2017]

Littlewoods lag

”I genomsnitt ungefär en gång i månaden råkar varje människa ut för en händelse som är så osanno­lik att den fram­står som ett mirakel.” – Matematikern John Little­wood (1885—1977, se Wikipedia) vid Cambridge‑universitetet räknade ut detta med statistiska metoder. Han defi­ni­e­rade ett mirakel som något som in­träffar med en sanno­lik­het av en på miljonen eller mindre. – Mer i Wikipedia.

[lagar] [sannolikhet] [ändrad 13 november 2017]