GPTZero

ett system som uppges kunna upptäcka ifall en text är skriven av språkmodellen ChatGPT. – Eftersom ChatGPT kan generera trovärdiga texter på akademisk nivå kan det användas för fusk. Det kan vara svårt eller omöjligt för en mänsklig bedömare att avgöra om texten är skriven av en människa eller av ChatGPT – i varje fall utan att fråga ut den påstådda skribenten. – GPTZero analyserar texten genom att jämföra den med vad ChatGPT brukar generera. Ju mer den testade texten liknar en typisk ChatGPT‑text i struktur, desto mer sannolikt är det att den faktiskt är genererad av ChatGPT. – GPTZero har utvecklats av den amerikanska studenten Edward Tian och presenterades i januari 2023. – Se gpt3demo….

[bluff och båg] [generativ AI] [språkteknik] [12 januari 2023]

ChatGPT

ett AI‑baserat system som kan generera texter som verkar vara skrivna av människor. – ChatGPT kan föra en skriftlig dialog (chatta) med en människa. Det kan också på begäran framställa längre texter, som akademiska uppsatser, om olika ämnen med trovärdigt resultat. Det kan också översätta. – ChatGPT (skrivs också Chat GPT) har utvecklats av företaget OpenAI och släpptes i november 2022. Det är en vidareutveckling av GPT‑3. – Det uppges i januari 2023 att Microsoft, som är delägare i OpenAI, kommer att integrera ChatGPT i sökmotorn Bing. – Abonnemangstjänsten ChatGPT+ tillkännagavs i februari 2023. Den är inledningsvis bara tillgänglig i USA. Se openai.com/blog…. – I grunden har ChatGPT ingen förståelse av vad det skriver, eller av vad den mänskliga motparten skriver. Systemet bygger på maskininlärning baserad på enorma insamlade textmängder och sammanställning och modifiering av passande textbitar (se stokastisk papegoja). Men till skillnad från liknande system kan ChatGPT ”hålla sig till ämnet”. I en chatt kommer det till exempel ihåg vad det har skrivit tidigare. – Det finns en uppenbar risk att studenter och andra använder ChatGPT för att skriva fuskuppsatser – läs om GPTZero. – Sångaren och låtskrivaren Nick Cave sågar ChatGPT: redhandfiles.com…. – Se chatgptonline.net. – IDG:s artiklar om ChatGPT: länk.

[chatt] [generativ AI] [generativt språk] [ändrad 26 april 2023]

logical learning machine

(LLM)maskininlärning som genererar logiska regler som är begripliga för människor. – Vanlig maskininlärning (till exempel baserad på artificiella neuronnät) skapar regler som, även om de ger användbara resultat, inte förklarar något för människor (black boxes). Bortsett från att reglerna är skrivna i maskinkod är de ett stort antal matematiska och statistiska formler som fungerar tillsammans på ett sätt som är omöjligt att överblicka. En logical learning machine producerar regler enligt mönstret OM–SÅ. De bör då vara begripliga åtminstone för programmerare med domänkunskap. En fördel är att man vid behov kan modifiera inlärningsmodellen. – På svenska blir det logisk inlärningsmaskin.

[maskininlärning] [11 december 2022]

stor språkmodell

(large language model, LLM) – program som framställer texter baserade på mycket stora textmängder. – Texterna kan verka vara skrivna av människor och de handlar om givna ämnen. De är en sammanställningar av utdrag ur ett stort antal texter. – Stora språkmodeller är en fortsättning på språkmodeller (language models) som, enkelt uttryckt, är program som fyller i nästa ord i en mening (textförslag), baserat på statistisk analys av annan text. Ju mer text programmet har att utgå från, desto bättre blir förslagen. I stora språkmodeller handlar det inte bara om nästa ord, utan om hela fraser. Underlaget kan vara miljoner texter hämtade från Google eller Wikipedia. Stora språkmodeller kan generera hela uppsatser och artiklar. De kan verka vara skrivna av människor, men det har påpekats att texterna brukar bli tråkiga och livlösa. Ett annat problem är att stora språkmodeller kritiklöst tar in fördomar och desinformation från de stora textmängder som de utgår ifrån. Ytterligare ett problem är att studenter kan använda sådana program för att fuska när de ska lämna in uppsatser. – En känd stor språkmodell är GPT-3.

[generativt språk] [11 december 2022]

Lensa AI

ett program som framställer porträtt som liknar målningar, baserade på fotografier. – Användaren skickar in minst tio foton på sig själv och får sedan något som liknar ett målat porträtt, som kan modifieras på olika sätt. Man kan byta ut klädsel och bakgrund och bättra på ansiktet. Porträtten kallas för ”magic avatars”. Tjänsten är en tillämpning av artificiell intelligens, AI. – Tjänsten har kritiserats för att den ibland genererar pornografiska bilder, även av barn – trots att tjänstens policy inte tillåter sådant. Det har också ifrågasatts om Lensa AI verkligen raderar fotografierna efter att porträtten har genererats. – Lensa AI är en avgiftsbelagd tjänst från företaget Prisma AI (prisma-ai.com). Den lanserades 2018, men ”magic avatars” kom i slutet av 2022. – Se prisma‑ai.com/lensa.

[ai] [bildbehandling] [8 december 2022]

specification gaming

specifikationstricksande – om artificiell intelligens: AI‑systems tendens att lösa uppgifter på icke önskvärda och oförutsedda sätt. – Bakgrunden är att det är svårt eller omöjligt för programmerare att specificera allt som AI‑program får och inte får göra. Det uppstår lätt kryphål, och eftersom AI‑program kan pröva tusentals möjligheter i sekunden kommer programmen att hitta kryphålen och pröva dem. – Läs också om AI alignment (AI-uppstyrning).

[ai] [20 november 2022]

Goodharts lag

En parafras på Goodharts lag är: ”När ett mätvärde blir ett målvärde upphör det att vara ett bra mått”. Vad den brittiska ekonomen Charles Goodhart (1936) skrev 1975 var ”Varje iakttagen statistisk regelbundenhet tenderar att försvinna så snart som den tyngs med påfrestningen att användas för styrning.” Goodhart skrev om ekonomisk politik, men hans lag åberopas i andra sammanhang, till exempel om maskininlärning. – Läs också om försiffring.

[diverse lagar] [ändrad 10 januari 2023]

AI alignment

AI-uppstyrning – om artificiell intelligens: programmering av AI‑system så att de bara gör vad utvecklaren har tänkt sig, utan skadliga eller olämpliga lösningar. – AI‑system är så komplexa att det är svårt att programmera dem för att lösa en uppgift utan risk för att de visserligen löser uppgiften, men på ett icke önskvärt och kanske farligt sätt. Begränsningar som kan vara självklara för människor har inte specificerats. Detta gäller inte minst i maskininlärning. Ibland löser AI‑program uppgifter på sätt som kan beskrivas som fusk. Bristande uppstyrning kan vara ett allvarligt problem när det gäller självkörande bilar och andra maskiner. – Läs också om specification gaming (specifikationstricksande).

[ai] [20 november 2022]