generativ

om texter och bilder – framställd enbart med användning av artificiell intelligens. – Ett system för maskininlärning tränas först på ett stort antal exempel på text eller bilder, vanligtvis hämtade från internet. Det kan sedan på begäran generera texter om angivna ämnen eller rita bilder som kan verka vara gjorda av människor. Några exempel är DALL‑E och ChatGPT. – På engelska: generative.

[ai] [17 januari 2023]

GPTZero

ett system som uppges kunna upptäcka ifall en text är skriven av språkmodellen ChatGPT. – Eftersom ChatGPT kan generera trovärdiga texter på akademisk nivå kan det användas för fusk. Det kan vara svårt eller omöjligt för en mänsklig bedömare att avgöra om texten är skriven av en människa eller av ChatGPT – i varje fall utan att fråga ut den påstådda skribenten. – GPTZero analyserar texten genom att jämföra den med vad ChatGPT brukar generera. Ju mer den testade texten liknar en typisk ChatGPT‑text i struktur, desto mer sannolikt är det att den faktiskt är genererad av ChatGPT. – GPTZero har utvecklats av den amerikanska studenten Edward Tian och presenterades i januari 2023. – Se gpt3demo….

[ai] [bluff och båg] [språkteknik] [12 januari 2023]

ChatGPT

ett AI‑baserat system som kan generera texter som verkar vara skrivna av människor. – ChatGPT kan föra en skriftlig dialog (chatta) med en människa. Det kan också på begäran framställa längre texter, som akademiska uppsatser, om olika ämnen med trovärdigt resultat. Det kan också översätta. – ChatGPT (skrivs också Chat GPT) har utvecklats av företaget OpenAI och släpptes i november 2022. Det är en vidareutveckling av GPT‑3. – Det uppges i januari 2023 att Microsoft, som är delägare i OpenAI, kommer att integrera ChatGPT i sökmotorn Bing. – Abonnemangstjänsten ChatGPT+ tillkännagavs i februari 2023. Den är inledningsvis bara tillgänglig i USA. Se openai.com/blog…. – I grunden har ChatGPT ingen förståelse av vad det skriver, eller av vad den mänskliga motparten skriver. Systemet bygger på maskininlärning baserad på enorma insamlade textmängder och sammanställning och modifiering av passande textbitar. Men till skillnad från liknande system kan ChatGPT ”hålla sig till ämnet”. I en chatt kommer det till exempel ihåg vad det har skrivit tidigare. – Det finns en uppenbar risk att studenter och andra använder ChatGPT för att skriva fuskuppsatser – läs om GPTZero. – Sångaren och låtskrivaren Nick Cave sågar ChatGPT: redhandfiles.com…. – Se chatgptonline.net. – IDG:s artiklar om ChatGPT: länk.

[ai] [generativt språk] [ändrad 1 februari 2023]

logical learning machine

(LLM)maskininlärning som genererar logiska regler som är begripliga för människor. – Vanlig maskininlärning (till exempel baserad på artificiella neuronnät) skapar regler som, även om de ger användbara resultat, inte förklarar något för människor (black boxes). Bortsett från att reglerna är skrivna i maskinkod är de ett stort antal matematiska och statistiska formler som fungerar tillsammans på ett sätt som är omöjligt att överblicka. En logical learning machine producerar regler enligt mönstret OM–SÅ. De bör då vara begripliga åtminstone för programmerare med domänkunskap. En fördel är att man vid behov kan modifiera inlärningsmodellen. – På svenska blir det logisk inlärningsmaskin.

[maskininlärning] [11 december 2022]

stor språkmodell

(large language model, LLM) – program som framställer texter baserade på mycket stora textmängder. – Texterna kan verka vara skrivna av människor och de handlar om givna ämnen. De är en sammanställningar av utdrag ur ett stort antal texter. – Stora språkmodeller är en fortsättning på språkmodeller (language models) som, enkelt uttryckt, är program som fyller i nästa ord i en mening (textförslag), baserat på statistisk analys av annan text. Ju mer text programmet har att utgå från, desto bättre blir förslagen. I stora språkmodeller handlar det inte bara om nästa ord, utan om hela fraser. Underlaget kan vara miljoner texter hämtade från Google eller Wikipedia. Stora språkmodeller kan generera hela uppsatser och artiklar. De kan verka vara skrivna av människor, men det har påpekats att texterna brukar bli tråkiga och livlösa. Ett annat problem är att stora språkmodeller kritiklöst tar in fördomar och desinformation från de stora textmängder som de utgår ifrån. Ytterligare ett problem är att studenter kan använda sådana program för att fuska när de ska lämna in uppsatser. – En känd stor språkmodell är GPT-3.

[språkteknik] [11 december 2022]

Goodharts lag

En parafras på Goodharts lag är: ”När ett mätvärde blir ett målvärde upphör det att vara ett bra mått”. Vad den brittiska ekonomen Charles Goodhart (1936) skrev 1975 var ”Varje iakttagen statistisk regelbundenhet tenderar att försvinna så snart som den tyngs med påfrestningen att användas för styrning.” Goodhart skrev om ekonomisk politik, men hans lag åberopas i andra sammanhang, till exempel om maskininlärning. – Läs också om försiffring.

[diverse lagar] [ändrad 10 januari 2023]

hyperparameter

i maskininlärning: parameter som anges innan maskininlärningen påbörjas. – Värden för andra parametrar fastställs som resultat av maskininlärningen, men hyperparametrar är alltså inställda på förhand. (De kan givetvis ändras vid behov av användaren.) De bidrar till att styra inlärningsprocessen. – Terminologiskt handlar det snarare om det som kallas för argument, alltså bestämda värden för parametrar.

[maskininlärning] [10 augusti 2022]