Faktisk

Faktisk.no – system för faktagranskning av nyheter, utvecklat av norska medieföretag. Det presenterades i mars 2017, men hade då inte tagits i drift ännu. Fak­tisk är ett samarbete mellan Dagbladet (länk), norska radio- och tv-bo­laget NRK (nrk.no), och VG (vg.no), ägd av Schibsted. Fakta­gransk­ningen ska skötas av ett särskilt aktiebolag som de tre företagen äger tillsammans, men som ska arbeta fristående från ägarna. Systemet bygger delvis på artificiell in­tel­li­gens, närmare bestämt användning av IBM:s Watson. – Se faktisk.no.

[ai] [källkritik] [massmedier] [13 april 2017]

Perspective

ett program som känner igen och pekar ut hatiska uttalanden i kom­men­tarer och i andra forum på nätet. Det bygger på maskininlärning och har utvecklats inom Googles dotterbolag Jigsaw (länk). Det visades upp i februari 2017. Det har tränats på tusentals autentiska kommentarer som har utvärderats av mänskliga bedömare. Meningen är att dis­kus­sions­forum, bloggar och tidningar ska kunna koppla in sig på Perspective. – Kritiker har påpekat att Perspective kan bli en form av censur, och att det kan göra det omöjligt att citera och ta avstånd från hatiska uttalanden som någon annan har gjort. Perspective har inte heller sinne för ironi, som när Donald Trumps uttalande om Hillary Clinton, ”nasty woman”, anammades av Clintons anhängare som började kalla sig själva för ”nasty women”. – Se perspectiveapi.com.

[diskussioner] [förföljelser] [maskininlärning]

algoritmaversion

(algorithm aversion) – motvilja mot att låta avancerade datorprogram (”al­go­ritmer”) fatta beslut och göra val i stället för att man gör det själv. Det är underförstått att algoritmen är opartisk och fri från för­ut­fat­tade meningar samt att den är ett beprövat regelsystem baserat på ett stort underlag, medan män­ni­skan litar på erfarenhet och magkänsla. – Un­der­sök­ningar tyder på att män­ni­skor först gillar den typ av datorprogram som det gäller här när de be­kantar sig med dem, men att de snart börjar ogilla dem och vill fatta be­slut själva – trots att utfallet ofta blir sämre. Små fel räcker för att människorna ska börja betrakta algoritmerna som opålitliga, även om mänskliga beslutsfattare gör större fel. – Al­go­ritm­aver­sion har studerats av de amerikanska forskarna Berkeley J Dietvorst (länk), Cade Massey (länk) och Joseph P Simmons (länk), se denna artikel med video från Knowl­edge@Wharton och denna veten­skap­liga artikel av samma författare. De har kommit fram till att om man ger användaren vissa, om än små, möjligheter att påverka algoritmen så blir de mer benägna att acceptera den.

[ai] [psykologi]