synavkodning – återskapande av det som en person ser genom avkodning av hjärnans elektriska signaler. – Synavkodning görs med maskininlärning: ett program för maskininlärning avläser impulserna i en försökspersons hjärna (med elektroder utanpå huvudet eller på annat sätt) samtidigt som försökspersonen får se bilder som programmet också ”ser”. Efter ett stort antal visningar lär sig systemet att återskapa bilderna enbart utifrån de elektriska impulserna i försökspersonens hjärna. De återskapade bilderna blir (när detta skrivs) inte perfekta, men rätt lika de bilder som visats. – Se denna artikel från 2022: arxiv.org/pdf….
[experimentell teknik] [maskininlärning] [medicinsk teknik] [27 mars 2023]
flerfingerfelet, konstighandfenomenet – bildgeneratorers tendens att rita konstiga händer, ofta med för många fingrar. – Detta anses bero på att underlaget för bildgeneratorer är mängder av bilder – foton och målningar – på människor. Ansikten brukar vara väl synliga på bilder av människor, och blir därför realistiskt ritade av bildgeneratorer, men händer är ofta helt eller delvis skymda. Och en bildgenerator ”vet” inte att människor har fem fingrar. Den kan däremot ha räknat ut att fingrar brukar vara intill varandra, och därför inte se några hinder för att lägga till extra fingrar på bilderna. Även andra delar av händerna kan bli konstiga. – Konstiga händer har blivit ett känt tecken på att en bild är framställd av en bildgenerator.
[fel] [maskininlärning] [24 mars 2023]
- – Artificial intelligence markup language eller Artificial intelligence modelling language – ett XML-baserat språk för kodning av dialogrobotar. Det presenterades 2001. – Se aimi.foundation;
- – eller AI/ML – artificial intelligence machine learning – artificiell intelligens med maskininlärning.
[ai] [förkortningar på A] [xml] [9 mars 2023]
om texter och bilder – framställd enbart med användning av artificiell intelligens. – Ett system för maskininlärning tränas först på ett stort antal exempel på text eller bilder, vanligtvis hämtade från internet. Det kan sedan på begäran generera texter om angivna ämnen eller rita bilder som kan verka vara gjorda av människor. Några exempel är DALL‑E och ChatGPT. – På engelska: generative.
[ai] [17 januari 2023]
ett system som uppges kunna upptäcka ifall en text är skriven av språkmodellen ChatGPT. – Eftersom ChatGPT kan generera trovärdiga texter på akademisk nivå kan det användas för fusk. Det kan vara svårt eller omöjligt för en mänsklig bedömare att avgöra om texten är skriven av en människa eller av ChatGPT – i varje fall utan att fråga ut den påstådda skribenten. – GPTZero analyserar texten genom att jämföra den med vad ChatGPT brukar generera. Ju mer den testade texten liknar en typisk ChatGPT‑text i struktur, desto mer sannolikt är det att den faktiskt är genererad av ChatGPT. – GPTZero har utvecklats av den amerikanska studenten Edward Tian och presenterades i januari 2023. – Se gpt3demo….
[ai] [bluff och båg] [språkteknik] [12 januari 2023]
ett AI‑baserat system som kan generera texter som verkar vara skrivna av människor. – ChatGPT kan föra en skriftlig dialog (chatta) med en människa. Det kan också på begäran framställa längre texter, som akademiska uppsatser, om olika ämnen med trovärdigt resultat. Det kan också översätta. – ChatGPT (skrivs också Chat GPT) har utvecklats av företaget OpenAI och släpptes i november 2022. Det är en vidareutveckling av GPT‑3. – Det uppges i januari 2023 att Microsoft, som är delägare i OpenAI, kommer att integrera ChatGPT i sökmotorn Bing. – Abonnemangstjänsten ChatGPT+ tillkännagavs i februari 2023. Den är inledningsvis bara tillgänglig i USA. Se openai.com/blog…. – I grunden har ChatGPT ingen förståelse av vad det skriver, eller av vad den mänskliga motparten skriver. Systemet bygger på maskininlärning baserad på enorma insamlade textmängder och sammanställning och modifiering av passande textbitar. Men till skillnad från liknande system kan ChatGPT ”hålla sig till ämnet”. I en chatt kommer det till exempel ihåg vad det har skrivit tidigare. – Det finns en uppenbar risk att studenter och andra använder ChatGPT för att skriva fuskuppsatser – läs om GPTZero. – Sångaren och låtskrivaren Nick Cave sågar ChatGPT: redhandfiles.com…. – Se chatgptonline.net. – IDG:s artiklar om ChatGPT: länk.
[ai] [generativt språk] [ändrad 1 februari 2023]
machine learning operations – tillämpning av DevOps principer på system för maskininlärning. – MLOps innebär att systemet löpande utvärderas och uppdateras och att detta ska automatiseras så mycket som det går. MLOps har tillämpats sedan mitten av 2010‑talet. Skrivs också ML Ops.
[förkortningar på M] [maskininlärning] [ord på -ops] [21 december 2022]
(LLM) – maskininlärning som genererar logiska regler som är begripliga för människor. – Vanlig maskininlärning (till exempel baserad på artificiella neuronnät) skapar regler som, även om de ger användbara resultat, inte förklarar något för människor (black boxes). Bortsett från att reglerna är skrivna i maskinkod är de ett stort antal matematiska och statistiska formler som fungerar tillsammans på ett sätt som är omöjligt att överblicka. En logical learning machine producerar regler enligt mönstret OM–SÅ. De bör då vara begripliga åtminstone för programmerare med domänkunskap. En fördel är att man vid behov kan modifiera inlärningsmodellen. – På svenska blir det logisk inlärningsmaskin.
[maskininlärning] [11 december 2022]
(large language model, LLM) – program som framställer texter baserade på mycket stora textmängder. – Texterna kan verka vara skrivna av människor och de handlar om givna ämnen. De är en sammanställningar av utdrag ur ett stort antal texter. – Stora språkmodeller är en fortsättning på språkmodeller (language models) som, enkelt uttryckt, är program som fyller i nästa ord i en mening (textförslag), baserat på statistisk analys av annan text. Ju mer text programmet har att utgå från, desto bättre blir förslagen. I stora språkmodeller handlar det inte bara om nästa ord, utan om hela fraser. Underlaget kan vara miljoner texter hämtade från Google eller Wikipedia. Stora språkmodeller kan generera hela uppsatser och artiklar. De kan verka vara skrivna av människor, men det har påpekats att texterna brukar bli tråkiga och livlösa. Ett annat problem är att stora språkmodeller kritiklöst tar in fördomar och desinformation från de stora textmängder som de utgår ifrån. Ytterligare ett problem är att studenter kan använda sådana program för att fuska när de ska lämna in uppsatser. – En känd stor språkmodell är GPT-3.
[språkteknik] [11 december 2022]