Perspective

ett program som känner igen och pekar ut hatiska uttalanden i kom­men­tarer och i andra forum på nätet. Det bygger på maskininlärning och har utvecklats inom Googles dotterbolag Jigsaw (länk). Det visades upp i februari 2017. Det har tränats på tusentals autentiska kommentarer som har utvärderats av mänskliga bedömare. Meningen är att dis­kus­sions­forum, bloggar och tidningar ska kunna koppla in sig på Perspective. – Kritiker har påpekat att Perspective kan bli en form av censur, och att det också kan göra det omöjligt att citera och ta avstånd från hatiska ut­tal­anden som någon annan har gjort. Perspective har inte heller sinne för ironi, som när Donald Trumps uttalande om Hillary Clinton, ”nasty woman”, anammades av Clintons anhängare som började kalla sig själva för ”nasty women”. – Se perspectiveapi.com.

[diskussioner] [näthat] [maskininlärning] [ändrad 15 maj 2017]

generative adversarial network

(GAN) – nätverksbaserat system för maskininlärning, baserat på två nätverk varav det ena försöker lura det andra. – Underlaget är en stor mängd informa­tion som det sammansatta nätverket ska bemästra. Det ena av de två delnätverken, det generativa, är programmerat för att skapa ny information av samma slag som i underlaget. Underlaget kan till exempel vara tio tusen foton av hundar: det generativa nätverkets uppgift blir då att generera en ny tro­värdig bild av en hund. Det andra delnätverket kallas för discriminatory, vilket här kan översättas med urskiljande. Dess uppgift är att upptäcka bilder som det generativa nätverket har skapat. Om det tror att en bild från det gene­ra­tiva nätverket kommer från underlaget har in­lär­ningen lyckats. – Gener­a­tive adversarial networks utvecklades av Ian Goodfellow (se denna länk) med flera och presen­te­ra­des 2014 i denna vetenskapliga artikel. – Kallas också för deep convolu­tional generative adversarial networks, DCGAN.

[maskininlärning] [ändrad 7 maj 2019]

maskininlärning

(machine learning) – träning av datorprogram i lösning en uppgift genom att man matar det med exempel. – Ett klassiskt fall är att lära dator­pro­gram att känna igen motiv i bilder – katter, småbarn, bilar… Det är prak­tiskt taget omöj­ligt för en programmerare att skriva ett program som känner igen katter (eller småbarn, eller bilar) på bilder med hög träff­säker­het och oavsett hur motivet är ar­ran­ge­rat. Men man kan i stället använda maskininlärning och mata in massor med bilder på (till exempel) katter i datorn. Datorpro­grammet är skrivet så att det letar efter sådant som är gemensamt för bild­er­na. Där­efter sätter man programmet på prov genom att låta det bedöma bilder med och utan katter. Genom att pro­gram­met får veta när det svarar fel kan det modifiera sina inre regler och därmed höja träff­säkerheten. Maskininlärning kan användas på många områden, inte bara motivigenkänning. – De inre regler som skapas i maskininlärning brukar inte säga människor så mycket. – Arti­fi­ci­ella neu­ron­nät kan ses som en form av maskin­inlär­ning, men det finns andra sätt att göra det på. Det grund­lägg­ande är att man låter programmet upp­täcka reglerna själv. – Läs också om djup­in­lär­ning.

[ai] [maskininlarning] [ändrad 15 maj 2017]

överanpassning

i maskininlärning: det att en algoritm som har utvecklats med maskininlärning alltför noga speglar just de data som den har tränats på. Den återskapar den datamängd som den har tränats på i stället för att generera en modell som nya data kan passas in i. En kurva som avbildar en överanpassad modell kommer att ha ojämnheter och andra avvikelser, medan en bra modell genererar en rak eller mjuk kurva. – På engelska: overfitting. – Jämför med generalisering.

[ai] [ändrad 7 september 2018]

LipNet

ett datorprogram som kan läsa på läpparna i realtid. Det har utvecklats av forskare vid universitetet i Oxford, och visades upp i november 2016. Forskarna tänker sig att programmet ska kunna köras i glasögon med inbyggd kamera och läsa upp det som sägs i en hörsnäcka. Läppläsningen har utveck­lats med djup maskin­inlär­ning. – Se press­med­delande från Oxford‑universitetet och video på Youtube.

[ai] [forskning] [funktionsnedsättning] [tillgängligt] [ändrad 4 juli 2019]

generalisering

(generalization)generaliseringsfel – mått på hur en algoritm för maskininlärning klarar att bedöma data som algoritmen inte har arbetat med tidigare. Korrekt generalisering eftersträvas; felet ska förstås bli så litet som möjligt. – Ett intressant fenomen är att generaliseringsfelet kan bli större om man tränar algoritmen på mycket stora datamängder. – Uttrycket används också i statistisk analys i liknande betydelse. – Jämför med överanpassning.

[ai] [ändrad 7 september 2018]