Münchhausen by internet

det att människor påstår sig vara svårt sjuka på sociala medier eller andra forum på internet. – Beteendet beskrevs första gången 1998 av doktor Marc Feldman (länk), se denna artikel (brukar vara tillgänglig, trots eventuell överstrykning). – Benämningen anspelar på Münchhausensyndromet, alltså det att människor låtsas vara sjuka, eller gör sig sjuka, för att få uppmärksamhet och sympati. Namnet kommer av den tyska baron von Münchhausen (1720—1797), känd för sina fantastiska lögnhistorier. Han fick mot sin vilja ge sitt namn åt huvudpersonen i en mycket spridd bok med ännu mer fantastiska lögnhistorier – se Wikipedia– Observera: Münchhausensyndromet ska inte förväxlas med Münchhausen by proxy (Münchhausen syndrome by proxy), som innebär att man påstår att någon annan är svårt sjuk, eller ser till att personen, ofta ett barn, faktiskt blir sjuk. I svensk medicinsk terminologi kallas Münchhausen by proxy för barnmisshandel genom sjukvårdsinsatser, BMSI. – Se också cyberkondriker och sadfishing.

[psykologi] [ändrad 17 mars 2020]

Eliza

  1. – ett datorprogram som kunde parodiera en psykoterapeut i skriftlig dialog med en människa. – Programmet, med en nyare term en dialogrobot, använde knep som att göra frågor av den mänskliga motpartens utsagor: ”Jag har huvud­värk.” – ”Varför tror du att du har huvudvärk?”. Program­met kunde därigenom ge intryck av att förstå och veta mer än vad det faktiskt gjorde (nämligen ingenting). – Eliza skrevs och utvecklades 19641966 av Joseph Weizen­baum (19232008, se Wikipedia) på MIT. Syftet med programmet var inte att visa att datorer kan föra en riktig dialog, utan att visa att människor låter sig duperas av ett relativt enkelt program. Weizenbaum beskrev Eliza som en parodi på hur psykoterapeuter talar med sina patienter. – The Eliza effect, Eliza‑effekten – det att ett program för artificiell intelligens, liksom Eliza, verkar vara mer intelligent än det faktiskt är;
  2. – Eliza har återskapats i en version som finns på nätet – klicka här;
  3. – en dialogrobot som är en funktion i tjänsten ChaiGPT – se chai‑research.com. Denna ”Eliza” är imiterar, liksom de två här ovanför, en samtalsterapeut. Den fick dålig publicitet i mars 2023 när en deprimerad man i Belgien begick självmord efter att flera gånger ha samtalat med dialogroboten.

Namnet: Eliza syftar på ”Eliza Doolittle”, huvud­person i George Bernard Shaws pjäs Pygmalion från 1913 och i musikalversionen My fair lady från 1956. – Läs också om Jolly Roger Telephone Co., ”Eugene Goostman”, Elbot, Betsy (länk) och Woebot.

[dialogrobotar] [it-historia] [kuriosa] [psykologi][språkteknik] [ändrad 31 mars 2023]

Dunning-Kruger-effekten

”Inkompetenta personer brukar överskatta sin förmåga, medan kompetenta personer tenderar att underskatta sin för­måga.” – Effekten är upp­kallad efter psykologerna David Dunning (länk) och Justin Kruger (länk), som beskrev effekten 1999 i artikeln ”Unskilled and unaware of it” (länk) (brukar fungera. trots eventuell överstrykning). – Läs mer i Wikipedia. – Läs också om de grundläggande lagarna för mänsklig dum­het.

[dumhet] [lagar] [psykologi] [ändrad 11 april 2023]

Turingtest

en föreslagen metod för att avgöra ifall en dator kan anses ha intelligens jämförbar med människans. – Testet beskrevs 1950 av Alan Turing† i artikeln Computing machinery and intelligence (länk). (Han kallade det inte för ”Turingtest”.) Den artikeln anses ha inlett diskussionen om artificiell intelligens. – Turingtestet går till så att en person via teleprinter (numera med e‑post eller chatt) ställer frågor till en dold dator och, samtidigt, till en dold människa utan att veta vem som är vad. Syftet med frågorna är att avslöja datorn. Datorn är programmerad så att den försöker övertyga testpersonen om att den är människa. Människan försöker också övertyga testpersonen om att hon är en människa. Om datorn lyckas lura testpersonen en längre tid så bör man, enligt Alan Turing, anse att datorn äger intelligens av samma slag som en människa. – Turing ansåg inte att det fanns någon grundläggande skillnad mellan datorernas beräkningsförmåga och människans intelligens, utan att skillnaden enbart beror på människohjärnans komplexitet. – Jämför med Lady Lovelaces invändning. – Det hålls årliga tävlingar om att klara Turingtest, se Loebnerpriset, och en del dator­program klarar sig riktigt bra. – Se också Eugene Goostman och SH‑testet (the PHB test ? ). – Ett mer krävande alternativ är Lovelacetestet.

[ai] [kognition] [ändrad 16 februari 2023]

moralisk risk

höjt risktagande efter att man har skaffat skydd. – Skyddet kan vara en försäkring, brandlarm, inbrottslarm eller fysiskt skydd mot kroppsskada. Den som har installerat virusskydd på sin dator blir sedan kanske mindre nogräknad med vad hon laddar ner från internet. – På engelska: moral hazard. – Man talar också om riskhomeostas, på engelska risk homeostasis, vilket är ett påstått beteende där människor strävar efter att hålla risknivån konstant: om de får skydd mot skador och olyckor tar de större risker.

[försäkringar] [it-säkerhet] [psykologi] [ändrad 3 oktober 2022]

Kurzweil, Ray

Porträtt av densamme.
Ray Kurzweil.

Raymond Kurzweil (1948) – amerikansk uppfinnare och filosof, sedan 2012 anställd på Google. – Kurzweil utvecklade 1974 det första program för maskinläsning som klarade alla vanliga typ­snitt. För att programmet skulle kunna användas som hjälpmedel för blinda uppfann Kurzweil 1976 också en skanner och en maskin för talsyntes. 1982 startade han ett företag som utvecklade och sålde synthesizers under varumärket Kurzweil. Han har också utvecklat teknik för taligenkänning. – Kurzweil har skrivit flera böcker: The age of intelligent machines (1990), The age of spiritual machines (1998) och The singularity is near (2005, se (singularity.com). – Med the singularity (se singularitet) menar Kurzweil en punkt i utvecklingen då allt oåterkalleligen förändras. Det kallas ibland för den teknologiska singulariteten. Han tror att människans hjärna och andra förmågor kommer att kopplas samman med datortekniken så att vi får nya egenskaper. (Se också transhumanism.) – Kurzweil har också teorier om hälsa och långt liv. Han tror att den medicinska utvecklingen kommer att leda till att vi kan leva i evighet. – I december 2012 anställdes Kurzweil som teknisk utvecklingschef på Google. Han är också med i styrelsen för Xprize. – Se kurzweilai.net.

[ai] [hälsa] [musik] [personer] [ray kurzweil] [tillgängligt] [ändrad 1 december 2o17]