middagsätarens dilemma

ett spelteoriskt problem som belyser svårig­heterna med att dela kostnader lika: Du och dina vänner går på restau­rang. Ni kommer överens om att dela notan lika. Men: då får de som tar de billigaste rätterna och dricker vatten subventionera de som tar de dyraste rätterna och de finaste vinerna. Somliga kanske utnyttjar situationen och beställer dyrare mat än de annars skulle ha gjort. De som verkligen vill ha något billigt får betala överpris, och blir natur­ligt­vis inte intresserade av att dela notan lika i framtiden. Enda säkra sättet att inte förlora på uppgörelsen i förhållande till de andra gästerna är att beställa det dyraste. Det kan därför uppstå egen­dom­liga beteenden som att alla beställer hummer trots att de hellre hade velat ha spaghetti. Alla gör av med pengar i onödan för att de är ogina. – Dilemmat används ibland för att illustrera problem med gemensamt finansierade nyttigheter. – På engelska: diner’s dilemma, även: unscrupulous diner’s dilemma. – Se också allmänningens tragedi (tragedy of the commons) och läs om de ätande filosoferna.

[spelteori] [ändrad 28 november 2022]

födelsedagsparadoxen

i sannolikhetslära: det faktum att det är lite mer än 50 procents sannolikhet att minst två per­soner i en grupp på 23 slumpvis utvalda personer har samma födelsedag. (Årtal räknas inte.) De flesta brukar gissa att det är mycket mer sällsynt att två i en grupp har samma födelsedag. – Notera att det gäller vilka två per­soner som helst i gruppen. Man måste alltså jämföra alla par av personer i gruppen, och i en grupp på 23 personer finns det 253 möjliga par att fördela på 365 eller 366 dagar. Sannolikheten för att båda i minst ett av dessa 253 par har samma födelsedag är ungefär 50,7 pro­cent. I hundra grupper om 23 slumpvis utvalda personer finns det alltså troligen två personer med samma födelsedag i ungefär 50 av grupperna. (Det antas att alla födelsedagsdatum är lika sannolika.) – Födelsedagspara­doxen är viktig att ha i åtanke när man analyserar lösenord och kryptering. Den lär oss att det kan vara enklare än man tror att hitta dubbletten till, i synnerhet, en elektronisk signatur. – På engelska: the birthday paradox. – Se födelsedagsattack (birth­day attack) och läs också om lådprincipen. – Mer i Wikipedia.

[sannolikhet] [ändrad 24 maj 2022]

kollisionsresistens

om matematik och kryptering: låg sannolik­het för att två olika tal får samma kondensat (hash) med en given algoritm. (Se kollision.) – Kollisionsresistens har betydelse för säkerheten i elektro­niska signaturer, som matematiskt sett är kondensat. Att åt­min­stone några tal av ett tillräckligt stort antal får samma kondensa­t är oundvikligt, oav­sett vilken algoritm man använder. Det framgår av den så kallade lådprincipen. Det bästa man kan åstadkomma är därför en algo­ritm för kondensat som gör det så svårt som möjligt för en angripare att hitta kollisioner. En angripare som hittar en kollision skulle i princip kunna kopiera en elektronisk signatur och sätta den på ett annat meddelande än det äkta (se födelsedagsattack). – En algoritm som ger resultat som ligger nära den matema­tiskt lägsta sannolikheten för kollision kallas för kollisionsresistent. För att illustrera med lådprincipen: kondensaten (utdata) bör för­delas så jämnt som möjligt mellan ”lådorna” (matematiskt tänkbara kondensat): det bör inte finnas många tal i vissa ”lådor” samtidigt som det är tomt eller glest i andra ”lådor”. En mer matema­tisk beskrivning finns i Wikipedia. – Stav­ning: Observera att det ska vara resistens med e, inte resistans. Det första ordet betyder motståndskraft, det andra betyder elektriskt motstånd. – På engelska: collision resistance (stavning med a).

[elektroniska signaturer] [matematik] [ändrad 22 februari 2021]

lådprincipen

Dirichlets lådprincip – i matematik: om man har fler brev än brev­fack, och lägger breven i brevfacken, kommer något brev­fack att innehålla minst två brev. – Detta är förstås en självklarhet, men är ändå bra att ha i minnet när man ska lösa problem inom sannolikhetslära. Det är också viktigt för förståelsen av kondensat (hash). – Se till exempel kolli­sion. – Uppkallad efter den tyska matematikern Johann Peter Gustav Lejeune Dirichlet (1805—1859, se Wikipedia). – Kallas också för brevfacksprincipen, på engelska the pigeonhole principle, ibland oegentligt översatt till duvslagsprincipen (pigeonhole=brevfack, ursprungligen duvslag), the drawer principle, the box principle eller Dirichlet’s principle.

[kryptering] [lagar] [sannolikhet] [ändrad 12 juli 2020]

katastrof

inom riskhantering: en plötslig händelse som leder till allvarliga skador, lång­variga drifts­avbrott eller stora förluster för verk­sam­heten. Mindre allvarliga störningar kallas för incidenter eller, om de bara noteras utan åtgärd, för händelser. Många anser att ordet katastrof bör sparas för händelser som kostar människo­liv och före­drar därför termen haveri. På engelska: disaster.

[riskbedömning] [riskhantering] [ändrad 5 september 2019]

entropi

oordning – i informations­teori: oförut­sägbarhet i en informations­­mängd. Termen är lånad från termodynamiken, där den står för utjämning av temperaturskillnader. I informationsteori är entropi en förutsättning för överföring av information:

  • – Låg entropi innebär hög förutsägbarhet i informationen: hög förutsägbarhet innebär att man inte får veta så mycket nytt;
  • – Hög entropi innebär låg förutsägbarhet i informationen. Man får veta mycket som är nytt eller oväntat.

– För att förstå entropi kan man reflektera över att ordning ofta ses som något önskvärt, men att information som är mycket välordnad (som alfabetet A, B, C, D…) inte säger oss mycket. Det är avvikelser från det välordnade – oordning – som säger oss något. – En informations­mängd kan vara en serie ettor och nollor, andra tecken, eller vanliga språk­liga yttranden. Om tecken­följden är helt förut­sägbar innehåller den ingen informa­tion, efter­som mot­tagaren inte får veta något nytt. Entropin är därför noll. (Vad som gör teckenföljden förutsägbar är en annan fråga som inte alltid har ett enkelt svar.) Motsatsen, 100 procents entropi, inne­bär att mot­tagaren inte kan förut­säga någon del av in­for­ma­tions­­mängden. (Normalt anger man inte entropi i procent.) – Jäm­för med slumptal i matematisk bemärkelse. – I ett med­delande med 100 procents entropi (oordning) skulle det inte gå att upp­täcka och rätta fel, eftersom det inte skulle finnas någon redundans. Efter att ha läst ett, flera eller många tecken skulle man inte kunna för­ut­säga nästa tecken med högre säkerhet än slumpen. – Van­liga språkliga ytt­randen har låg entropi, det vill säga att det är rätt lätt att gissa vilken nästa bok­stav blir i en text. Och om man inte uppfattar ett enstaka ord i en talad mening kan man ju ofta gissa vilket ord det var. – Komprimering av data är möjlig bara om entropin är lägre än 100 procent.  – På engelska: entropy.

[data] [fysik] [sannolikhet] [ändrad 16 april 2022]

falsk negativ

miss – det att ett sök­system inte hittar något som ändå finns. Det ger negativt svar (ingen träff), trots att det finns något som det borde ha hittat. – Ex­empel: om ditt spam­­filter släpper igenom spam till din inkorg är det en falsk negativ – en miss. Om prov­­tag­ningen på vårdcentralen säger att du är frisk, trots att du faktiskt är sjuk, är det också en falsk negativ. – Ob­ser­vera: Negativ betyder här att något saknas eller inte påträffas, inte att det är dåligt. Ett negativt prov­svar på cancer är något bra. – På engelska: false negative. – Mot­­satsen, falsk positiv, är en sken­­träff. – Se också falsk avvisning och specificitet.

[sannolikhet] [testning] [ändrad 18 juli 2022] 

falsk positiv

falskt alarm, skenträff – det att ett sök­system uppger att det har hittat något, trots att det inte är vad söksystemet letar efter. – Exempel: om ett spamfilter klassar ett mejl som spam, trots att det är ett legitimt meddelande, är det en falsk positiv. Om provtagningen på sjuk­huset säger att du är sjuk, trots att du är frisk, är det också en falsk positiv – en skenträff. – Motsatsen, falsk negativ, är en miss. – Observera: Positiv betyder här att något finns eller påträffas, inte nödvändigtvis att det är bra. – På engelska: false positive. – Se också falsk matchning och sensitivitet.

[sannolikhet] [testning] [ändrad 8 augusti 2022]

evidensteori

(theory of evidence, även belief functions eller Dempster‑Shafer) – metod att räkna fram hur stor tilltro man ska sätta till ett påstående. – Metoden utgår från hur stor tilltro man sätter till bevisen (evidensen) för påståendet, eller hur mycket man litar på uppgiftslämnarna. – Exempel: Säg att någon säger sig ha sett en främmande ubåt i skärgården, men att du bedömer sannolikheten för att vittnet är tillförlitligt till bara 40 procent. (Hur du kommer fram till den procentsatsen är en annan fråga.) Det betyder inte att sannolikheten för alternativet, att det inte finns en ubåt där, är 60 procent. Du kanske inte har någon information alls som styrker att det inte fanns någon ubåt: det faktum att ingen, förutom ett otillförlitligt vittne, har sett någon ubåt betyder ju inte att det inte finns någon. Slutsatsen kan bli att sannolikheten är 40 procent för ubåt, 60 procent obestämd. Så även om vittnet anses otillförlit­ligt kan observationen ändå leda till att du beslutar att sätta in ubåtsspaning, eftersom det finns mer som talar för ubåt än som talar emot. (Vid vilken procent­sats du sätter gränsen är en policyfråga, inte en matema­tisk fråga.) Det hela blir mer komplicerat när det finns flera bevis och uppgiftslämnare som man har olika grad av tilltro till. – Sättet att räkna i evidensteori påminner om bayesisk sannolikhet. Skillnaden är att i bayesisk sannolik­het utgår man från vad som är känt sedan tidig­are, i evidens­teori från hur mycket man litar på påståendena (evidensen). Metoden har utveck­lats av forskarna Arthur P Dempster (länk) och Glenn Shafer (länk). Mer i Wikipedia.

[sannolikhet] [ändrad 4 januari 2018]

potenslag

i sannolikhetslära: lag som säger att obetydliga händelser är mycket mer vanliga än betydelsefulla händelser av samma slag. – Detta gäller för många företeelser, till exempel för jordbävningar, men inte för alla. Mer exakt står sanno­lik­heten, om en potenslag är tillämplig, för att en händelse av den typ det gäller i omvänd expo­nenti­ell pro­por­tion mot händelsens storlek. Alltså: om sanno­lik­heten för att en händelse med värdet 1 ska inträffa är 1/10, så är sanno­lik­heten för att en händelse med värdet 2 ska inträffa 1/102 alltså 1/100. Sanno­lik­heten för en händelse med värdet 3 är 1/103, alltså 1/1 000. Värdena är givetvis unge­fär­liga. – Potens­lagar stämmer för många natur­fenomen. – En känd potens­lag är Zipfs lag. – Se också långa svansen, Paretoprincipen­, svart svan och drak­kung. – På engelska: power law.

[sannolikhet] [ändrad 11 december 2017]