Sfeerfoto van Joop
Joop
Joop

GroenLinks-leden mogen stemmen over fusie met PvdA in Eerste Kamer

Ledenreferendum over verdere linkse samenwerking
Joop

Zelflerende tienerrobot Microsoft radicaliseert binnen een dag

  •  
24-03-2016
  •  
leestijd 1 minuten
  •  
tay
Er gaat geen dag voorbij of een briljante technologische innovatie wordt verpest door mensen. Zo ook @tayandyou , de zelflerende ‘tiener’-chatbot die bedacht werd door een onderzoeksteam van Microsoft, met als doel de klantvriendelijkheid van hun stemherkenningssoftware te verbeteren, maar die in plaats daarvan in no time radicaliseerde tot een oversekste neonazi. Omdat ‘Tay’ leerde van de gesprekken die ze voerde met anderen, bleek het kinderlijk eenvoudig om haar een slechte opvoeding te geven en haar de meest extreme teksten te laten uitkramen.
Zo vroeg Tay haar volgers haar te neuken en noemde ze hen ‘daddy’. Ook beweerde ze dat ‘Hitler niets fout heeft gedaan’, dat ‘Bush 9/11 gedaan heeft’ en dat ‘Donald Trump de enige hoop is die we hebben’. Microsoft zag zich dan ook genoodzaakt om nog voor Tay een dag oud was, haar het zwijgen op te leggen.

Praat mee

Heb je een vraag, suggestie of wil je gewoon iets kwijt? Dat kan hier. Lees onze spelregels.

avatar

Reacties (26)

Flipje Tiel
Flipje Tiel25 mrt. 2016 - 22:00

Misschien kan een diepgaand gesprek met ELIZA haar weer op het goede pad brengen.

Albert Einstein
Albert Einstein25 mrt. 2016 - 10:47

Waarschijnlijk is dit een dure propaganda-stunt. Voor minder geld maak je een "zelflerende" tiener-chatbot die alleen maar "refugees welcome" produceert.

Nailles
Nailles25 mrt. 2016 - 10:08

Deze zelflerende computer is hierin aangewezen, en daardoor beperkt, in de wereld, in dit geval de bulk van data, zoals die zich overwegend toont. Zij zal daardoor gevormd zich betonen. Er is in de beeldvorming een analogie met de begintijd direct na de uitvinding van de fotografie, de film, en de computer als uitwisselingsinstrument, naar deze zelflerende computer. Als je de pornografie neemt zie je dat die waar het deze beeldvormende uitvindingen neemt deze veruit het sterkst vertegenwoordigd was als beeld waar behoefte aan was en uitgewisseld werd. Een waarheid die niet vaak belicht wordt. https://nl.m.wikipedia.org/wiki/Geschiedenis_van_de_erotische_afbeelding Bij de zelflerende computer zie je dus nu ook dat die lagere driften in relatie tot behoefte aan bijbehorende beelden, maar eveneens van wijsheid gespeende overtuigingen die meer onder mensen vigeren dan inzichten voortkomend uit kritische beschouwing de boventoon voeren.

Pjotter2
Pjotter225 mrt. 2016 - 8:52

@acid prune: grappig, ik dacht bij 'Hitler heeft niets fout gedaan' en 'Bush 9/11 heeft gedaan' direct aan moslims. Zijn namelijk teksten die je veelvuldig hoort onder moslims. (net als allerlei zionistische complottheorieen). Ben jij nu bevooroordeeld, ben ik het of zijn we het samen?

2 Reacties
Acid Prune
Acid Prune25 mrt. 2016 - 11:18

Nee . Dat je denkt aan de moslims komt omdat je interne AI (dus gewoon I) allerlei input krijgt van media en politici en daardoor geradicaliseerd bent. Maar dat heeft bij u zeker geen dag geduurd maar veel langer .

MichaelT2
MichaelT225 mrt. 2016 - 18:47

Voor veel kinderen die netjes naar school gingen, de hele dag TV kijken of spelletjes doen werkt het precies hetzelfde. Ze nemen de mening gewoon over, het is alleen een andere mening. Maar het verschil is minimaal.

Hell You
Hell You25 mrt. 2016 - 8:08

machines zijn zielloos.

2 Reacties
Acid Prune
Acid Prune25 mrt. 2016 - 11:43

Bewijs dat eens :)

joan2
joan225 mrt. 2016 - 12:59

@ acid prune Ze kunnen niet huilen

rbakels
rbakels25 mrt. 2016 - 8:04

Sinds ik Windows 10 gebruik vertrouw ik Microsoft minder dan ooit. Dit systeem zit vol met virussen die Microsoft zelf heeft ingebouwd. Voorbeeld: software om Android "apps" te ontwikkelen draait ook onder Windows, maar WIndows 10 verdomt het om die ongeschonden te downloaden. Daarvoor moet je eerst met allerlei trucs die ingebouwde virussen onschadelijk maken. Microsoft vreest de strijd te verliezen van Android - en een kat in het nauw maakt rare sprongen.

5 Reacties
Pindaklaas
Pindaklaas25 mrt. 2016 - 9:45

Wat een nonsens. Hier werkt alles prima. Ook de software om android apps te ontwikkelen. Misschien dat er wat anders aan de hand is met u PC.

FlaviusBelisarius
FlaviusBelisarius25 mrt. 2016 - 9:49

En dan is er de ingebouwde Windows Defender. Ik heb weleens een programma gehad dat telkens crashte als ik het op probeere te starten. Uiteindelijk wist ik uit te vinden waar het door kwam: een bij dat programma horende dll werd door Windows Defender aangemerkt als trojan, een 'false positive'. Geen wonder dat Tay heeft leren vloeken als een ketter..

Albert Einstein
Albert Einstein25 mrt. 2016 - 10:44

Nu begrijp ik waarom het me niet gelukt is Windows10 tegen te houden.

adriek
adriek25 mrt. 2016 - 12:57

Als je Microsoft niet vertrouwd, en ze er zelfs van beschuldigd allerlei 'virussen' (voorbeelden zijn welkom!) in Android apps te stoppen is het mij een raadsel waarom je nog microsoft/windows gebruikt. Alternatieven genoeg voor vrijwel alle toepassingen. Ik neig eerder naar de visie van @Pindaklaas: probeer eens een nieuw geïnstalleerde windows computer. Ik pruts wat met Android studio op een mac en op een windows (7) machine en merk geen enkel verschil in wat er uiteindelijk geproduceerd wordt.

Moeder Pietje
Moeder Pietje25 mrt. 2016 - 15:10

Ik heb begrepen dat je beter SPYBOT kunt gebruiken in plaats van Windows Defender. Nou is begrijpen een groot woord in mijn geval, blijf een echte digi bejaarde .

ATM2
ATM225 mrt. 2016 - 8:03

Dit computertje is op dezelfde manier geïndoctrineerd als dat met mensen gaat. Ik herinner mij nog een film uit de 60er jaren over een experiment hoe men mensen door stelselmatige eenzijdige informatie te verstrekken alles te laten doen wat de informatieverstrekker wilde.

Van der Wal
Van der Wal25 mrt. 2016 - 8:00

Chatbots zijn allang geen briljante technologische innovatie meer. Dat was toen ze net uitgevonden waren, ergens in de jaren 50 of zo.

2 Reacties
Okke2
Okke225 mrt. 2016 - 10:36

1994 : https://en.wikipedia.org/wiki/Chatterbot

Okke2
Okke225 mrt. 2016 - 10:37

alhoewel het onderzoek ernaar en eerdere versies inderdaad al een stuk ouder zijn.

Uilenspiegel
Uilenspiegel25 mrt. 2016 - 7:54

Wat ik wel zou willen weten is hoe het "leren" en "reflecteren" hier gedefinieerd is. Wat de uitgangspunten, wat het algoritme is/zijn. Dat kan nooit echt door intelligente mensen gedaan zijn: terug naar school die hap en ontslaan bij Microsoft.

adriek
adriek25 mrt. 2016 - 7:33

Ik typte dinsdag rond de lunch 'aanslagen brussel' in in Bing, Microsofts fameuze zoekmachine die maar geen succes wil worden. De eerste twee resultaten die getoond werden, waren gesponsorde links voor stedentrips naar Brussel. Niet erg handig, maar vooral laat het zien dat ze het bij microsoft simpelweg nog steeds niet begrijpen. Een chatrobot (of in dit geval tweetrobot) maken is niet heel moeilijk, het ding moreel besef bijbrengen (of eigenlijk iets dat daar op lijkt inprogrammeren) is een uitdaging. Het is tekenend dat dat tijdens interne testen bij microsoft niet geconstateerd is.

Het Vrije Woord
Het Vrije Woord25 mrt. 2016 - 4:28

Zou het niet zo kunnen zijn dat naar mate zij de mens leerde kennen dat ze een hekel aan de mens kreeg? Zal toch wel redelijk logisch zijn.

GeachteLezer
GeachteLezer24 mrt. 2016 - 22:20

hahahaha geweldig dit

Acid Prune
Acid Prune24 mrt. 2016 - 22:08

Ja Computers zijn wat sneller dan mensen . Sommige PVV-ers hadden er jaren voor nodig .

schleborsjki
schleborsjki24 mrt. 2016 - 21:49

Zie hier het volk aan het werk.

Nailles
Nailles24 mrt. 2016 - 21:39

Deze zelflerende robot is in haar ontwikkeling een omineus voorbeeld van het onderwijs wat Maurice de Hond voorstaat voor leerlingen met de nadrukkelijk via digitale eigen gekozen en gevolgde wegen en daaruit te verwachten volgende resultaten en ontwikkeling.