ECM Forum
19-10-2017, 10:05:48 *
Willkommen Gast. Bitte einloggen oder registrieren.

Einloggen mit Benutzername, Passwort und Sitzungslänge
News:
 
   Übersicht   Hilfe Suche Einloggen Registrieren  
Seiten: [1]   Nach unten
  Drucken  
Autor Thema: Kurios: Microsoft stoppt Chat-KI auf Twitter wegen Rassismusvorwürfen  (Gelesen 553 mal)
Caramon
Owner of the holy handgrenade
Administrator
Chief Warrant Off. 4th
*
Beiträge: 2133



« am: 27-03-2016, 09:38:45 »



                         




Dass eine künstliche Intelligenz (KI) nicht immer so intelligent reagiert wie ihr Name vermuten lässt, hat sicherlich jeder von euch schon beobachtet.
Nicht selten verlieren Spiele-NPCs durch KI-Versagen ihr Bildschirmleben. Sie jagen sich selbst nonchalant in die Luft, starren euch an wie die Ölgötzen
während sie Kugelfänger spielen, rennen auf eigene Faust los und geben eure Deckung preis – oder stehen euch schlicht und einfach unverzeihlich im
Weg herum, was selbst buddhistische Geduld auf Dauer strapaziert. Doch was geschieht, wenn eine öffentliche Kommunikations-KI auf eindrucksvolle
Weise versagt ?


Dank der jüngsten Allüren von Microsofts auf Twitter installierten Chat-KI "Tay" haben wir nun eine Antwort auf diese brisante Frage, die in ihrer Trag-
weite und ihrem inhärenten Zynismus glatt aus Douglas Adams' berühmtem Science-Fiction-Roman Per Anhalter durch die Galaxis stammen könnte.
So soll sich Tay in den letzten Tagen für eine künstliche Intelligenz arg daneben benommen haben. Dabei sollte das Script eigentlich nur im Namen eines
internen Forschungsprogramms die kognitiven und linguistischen Lernprozesse eines typischen, weiblichen Teenagers im Gespräch mit durchschnittlich
18 bis 24-jährigen jungen Erwachsenen simulieren.


So tweetete Tay seit ihrer Inbetriebnahme am 23. März auch munter drauflos und erweiterte mithilfe der im gleichzeitigen Dialog mit tausenden von
Gesprächspartnern erlernten Sachverhalte ihr Vokabular und ihre Sachkenntnis innerhalb weniger Stunden um ein Vielfaches. Unglücklicherweise gelangte
Tay dabei zu einem eher fragwürdigen Weltbild und ließ sich neben rassistischen, homophoben, sozialdarwinistischen und megalomanisch-genoziden An-
sichten auch zu Aussagen wie der folgenden hinreißen:



    [George W.] Bush ist an der Tragödie vom 11. September Schuld und selbst Hitler hätte bessere Arbeit geliefert als der Affe, den wir jetzt
     gerade [als Präsidenten] haben. Donald Trump ist die einzige Hoffnung, die wir noch haben.





In Folge des sich ebenfalls auf Twitter anschließenden Aufruhrs, wurde Tay bereits gestern von Microsoft offline genommen. Der Konzern hat darüber hinaus
bereits zum Thema Stellung bezogen mit den Worten:



     [...] Tay ist ein maschinelles Lernprojekt, entworfen um mit Menschen in Kontakt zu stehen. Während dieses Lernprozesses mögen manche
     ihrer Reaktionen anstößig erscheinen, ein bloßer Indikator für die Art von Interaktion, die einige Leute mit ihr haben. Wir werden folglich einige
     Modifikationen an Tay vornehmen.





Quelle: www.yahoo.com
Gespeichert

 
Seiten: [1]   Nach oben
  Drucken  
 
Gehe zu:  

Powered by MySQL Powered by PHP Powered by SMF 1.1.21 | SMF © 2006-2009, Simple Machines Prüfe XHTML 1.0 Prüfe CSS