Logo Joop
De opiniesite van BNNVARA met actueel nieuws en uitgesproken meningen

Door AI gegenereerde Seinfeld-show op zwart gezet na transfobe opmerkingen

  •  
06-02-2023
  •  
leestijd 2 minuten
  •  
2834 keer bekeken
  •  

Een door kunstmatige intelligentie (AI) geschreven versie van de populaire comedyserie Seinfeld, is geschorst van streamingplatform Twitch vanwege transfobe teksten. De makers van het programma proberen de schorsing ongedaan te maken en zeggen dat het om een ongelukje gaat. Het programma heeft enkele tienduizenden kijkers.

“Nothing, Forever”, heet de namaak Seinfeld, met in de hoofdrol Larry Feinberg. Net als bij het origineel begint elke aflevering met een stand-up comedy-optreden en dat is waar het in de gewraakte aflevering direct misging. “Ik denk erover een stukje te doen over hoe transgenderisme eigenlijk een geestelijke stoornis is”, begint Feinberg. “Of over hoe alle progressieven heimelijk homoseksueel zijn en hun wil aan iedereen willen opleggen. Of hoe transgender personen het weefsel van de maatschappij vernietigen.” Om vervolgens te concluderen dat er niemand lacht.

Bij Twitch kon men er overduidelijk ook niet om lachen. Direct na de opmerkingen werd het account op zwart gezet. Hoewel Twitch alleen heeft gezegd dat de huisregels zijn overtreden, zonder daarbij te zeggen welke precies, wijzen de kijkers van Nothing, Forever direct op de trans-opmerkingen.

Volgens de makers van de comedyserie heeft het te maken met een storing in de Open AI GPT-3 Davinci-software. Omdat die niet werkte, zou gebruik zijn gemaakt van een minder geavanceerde voorloper van Davinci, Curie. Dit is volgens de makers de oorzaak van “onaanvaardbare teksten die werden gegenereerd”. De makers zeggen ook graag te willen benadrukken “dat niets van wat er gezegd is de mening van de ontwikkelaars weergeeft”.

De transfobe teksten van Nothing, Forever zijn tekenend voor veel projecten die gebruik maken van AI. Omdat de programma’s hun output baseren op data die wordt ingevoerd, meestal via het internet, is er een groot risico dat de bots binnen de kortste keren racistisch, seksistisch of homofoob zijn. Dat ondervond Microsoft enkele jaren geleden ook met hun chatbot TayTweets die via Twitter moest leren zelfstandig gesprekken te voeren. In minder dan 24 uur tijd bleek TayTweets een onvervalste nazi.

Delen:

Praat mee

onze spelregels.

avatar
0/1500
Bedankt voor je reactie! De redactie controleert of je bericht voldoet aan de spelregels. Het kan even duren voordat het zichtbaar is.