djup maskininlärning

(deep learning, på svenska också djupinlärning) – avancerad typ av maskin­inlärning. Skillnaden mot äldre typer av maskininlärning är att med djup maskinlärning är det datorsystemet som själv utvecklar program för att lära sig lösa problem. Tidigare var det människor som skrev program, till exempel artificiella neuronnät, som skulle lära maskinerna att lösa problem av en viss typ. Förutsättningen för att detta ska vara möjligt är att man har tillgång till mycket stora datamängder som datorsystemet kan analysera och öva sig på. Ett syfte är att datorerna ska lära sig att känna igen olika objekt och företeelser. Processen ska till största del vara auto­matisk. – En förebild som forskarna bakom djup maskininlärning ibland hänvisar till är den mänskliga hjärnan. Det mesta som människor kan och vet har ju hjärnan själv upptäckt och kategoriserat, och ingen vet riktigt hur det går till. Djup maskininlärning går inte ut på att imitera hjärnan, men det går ut på att göra något som liknar det som hjärnan gör. – I mitten på 2010‑talet utvecklar många stora it‑företag tekniker för djup maskininlärning. Googles program Alphago, som 2016 besegrade världs­mästaren i brädspelet Go, lärde sig spelet genom djup maskin­inlärning. – Läs också om inceptionism. – Språkligt: Ordet djupinlärning är visserligen smidigare än djup maskininlärning, men om man föredrar djupinlärning för engelska deep learning bör man vara medveten om att det också används i pedagogik i en annan betydelse: motsatsen till ytlig inlärning.

[ai]

XiaoIce

kinesiskspråkig dialogrobot från Microsoft. – XiaoIce körs sedan hösten 2014 bland annat på den kinesiska mikrobloggen Weibo. Den körs också i Japan under namnet Rinna. – XiaoIce lär sig dialog genom att analysera vad som skrivs på mikrobloggarna. Den har hittills inte råkat ut för samma politiska missöden som den nyare, engelskspråkiga varianten Tay. – Namnet: Xiao betyder ’liten’ och uttalas ”tjiao”; ice är det engelska ordet. – Se inlägg på Bings blogg (länk).

[bloggar] [robotar] [språkteknik] [ändrad 19 april 2017]

Tay

en nerlagd chattrobot från Microsoft. – Tay provkördes på Twitter den 23 mars 2016, men drogs snabbt tillbaka efter att den hade börjat hylla Hitler och förolämpa andra twittrare, särskilt kvinnor. Detta anses bero på en samordnad attack där många personer bombarderade Tay med nazistiska och kvinnoförnedrande tweetar. – Se inlägg på Microsofts blogg. – Tay hade inga egna åsikter eller kunskaper, utan lärde sig genom att analysera och ta efter vad andra skrev på Twitter. Vid ett andra försök den 30 mars 2016 började Tay skriva om olagliga droger, och då stängde Microsoft av Tay för gott. Men i december 2016 introducerade Microsoft chattroboten Zo (zo.ai), som fortfarande är i drift (juni 2018). – Läs också om Xiaoice.

[maskininlärning] [mjukvarurobotar] [nerlagt] [ändrad 8 juni 2018]

Eyeriss

experimentell kraftfull processor för mobiltelefoner, utvecklad på MIT. – Eyeriss är gjord för att kunna lösa avancerade problem inom maskininlärning och annan artificiell intelligens. Den ska till exempel kunna användas i självkörande bilar. Samtidigt är den strömsnål för att kunna användas i mobil utrustning. Den har 168 kärnor (betydelse 2), och var och en av dem har eget minne. Eyeriss blev känd i februari 2016. – Läs mer på MIT:s webbsidor (länk).

[ai] [forskning och experimentell teknik] [maskininlärning] [mobilt] [processorer] [ändrad 19 november 2017]

magenta

  1. – purpurröd färg som används i additiv färg­bland­ning, till exempel i tid­nings­­tryck. –– Se CMYK. –– Tid­nings­tryck­are kallar ibland magenta för ””rött””, men det kan leda till miss­för­stånd när man talar om dator­grafik: rött och magenta är olika (se RGB). Magenta kallas ibland också för fuchsia;
  2. – tidigare namn på mikrokärnan Zircon;
  3. Magenta – Googleprojekt för att använda maskininlärning för att skapa konst och musik. – Se magenta.tensorflow.org.

[ai] [bildbehandling] [operativsystem] [tryckning] [ändrad 5 december 2017]

 

Facebook M

nerlagd experimentell digital hjälpreda som kunde användas med Facebook Mes­sen­ger. – Face­book M skulle själv­ständigt kunna boka tider, köpa presenter och leta in­for­ma­tion. – Face­book M påminde om Apples Siri och Microsofts Cortana, men skilde sig från dem genom att mänsk­liga assistenter hjälpte pro­gram­men när det behövdes. Ett system för maskininlär­ning följde de mänsk­liga assis­tent­ernas arbete, och skulle kunna lära av det. – Face­book M testades först i San Fran­cisco-området med början i augusti 2015, och var bara tillgängligt för en begränsad grupp. I januari 2018 lades projektet ner. Tjänsten var först känd som Money­penny. – Se Facebooks webb­sidor (inaktuellt). – Jäm­för med Amazon Echo, Soundhounds Hound och med IBM:s Watson samt med Wolfram Alpha.

[maskininlärning] [nerlagt] [personliga data] [ändrad 10 september 2018]

affective computing

känsloigenkänning, känsloförmedlande teknik –– igen­känning och för­medling av känslor och sinnes­tillstånd med hjälp av dator­teknik. Kan användas för:

  1. känsloigenkänning – datoriserade metoder att avläsa om en människa är glad, ledsen, trött…;
  2. – känsloöverföring –– tekniker för representera avsändarens känslor för mot­tagaren i data­kommunikation;
  3. – känslosimulering –– att få syntetiska röster eller dator­animerade ansikten att uttrycka känslor.

artificiellt neuronnät

(artificial neural network) – program som lär sig lösa problem genom att man först tränar det. Programmets inre inställningar förändras tills program­met ger önskat resultat. Det förutsätts ingen förståelse av problemet som ska lösas – programmeraren anger bara vilken form lösningen måste ha. – Artificiella neuronnät, på svenska ofta kallade för neurala nät­verk, är ett av de mest kända verktygen inom artificiell intelligens. Det är den kanske äldsta typen av maskininlärning. – Ar­ti­fi­ciella neuronnät utvecklades med nerv­sys­temet som förebild, därav namnet (neuron=nervcell). De lär sig genom att man tränar dem med exempel där det rätta resultatet är känt. Avvikelsen från det rätta re­sul­tatet används för att justera inställningarna, och sedan försöker man igen tills resultatet blir rätt. Artificiella neuronnät kan ibland lösa problem som inte kan hanteras med någon känd algoritm, som att hitta mönster och att känna igen mönster. De kan till exempel tränas att tolka handskriven text och att känna igen ansikten. – I kommersiell drift används artificiella neuronnät bland annat för att upptäcka miss­tänkta kontokortsbedrägerier. De tränas då att känna igen de enskilda kundernas normala in­köps­mön­ster och att slå larm vid avvikelser. – Be­räk­ningarna i neuronnätet sker genom att signaler (siffervärden) som passerar nätet på vissa vägar för­stärks, de som tar en annan väg för­svagas, somliga stoppas helt. Det är en från början slumpartad process, men resultatet förbättras under in­lär­nings­fasen. Avvikelsen från det rätta utfallet återförs till nätverket och används för att förbättra inlärningen genom att vissa förbindelser för­svagas, andra förstärks, en del tas bort helt och hållet (se gallring). Därav beteck­ningen bakåtpropageringsnätverk (back propagation networks) på den mest kända typen av artificiella neuron­nät. Om in­lär­ningen har baserats på ett representativt urval av data kan nätverket så småningom lösa även oprövade problem av liknande slag. – Artificiella neuronnät kritiseras för att de är ”svarta lådor” som löser problem utan att man kan se hur. Motargu­mentet är att de kan lösa pro­blem som man ändå inte vet hur man skulle lösa med vanlig pro­gram­me­ring. – Se också Datatermgruppen (länk).

[ai] [ändrad 8 maj 2018]