KI und Forschung - 10 | 22: Autonomes Fahren auf dem Rückzug

Eine auf den ersten Blick überraschende Nachricht erreicht uns in diesem Newsletter aus der Automobilindustrie. Ford und VW haben bekanntgegeben, dass die gemeinsame Firma Argo AI schließen wird. Argo AI arbeitete an autonomem Fahren und wurde als eines der im Gebiet führenden Unternehmen angesehen. Begründet wurde die Entscheidung von Ford damit, “dass es eine strategische Entscheidung getroffen hat, seine Ressourcen auf die Entwicklung fortschrittlicher Fahrerassistenzsysteme zu verlagern, und nicht auf autonome Fahrzeugtechnologie”. Wenn man sich jetzt noch überlegt, wer bisher in der Autoindustrie eigentlich überhaupt autonomes Fahren versprochen hat, dann fallen einem auch nicht viele Beispiele ein. Es scheint, der Traum vom komplett autonomen Fahren wird noch eine Weile auf sich warten lassen.

Menschen schlagen die KI im Multiplizieren

Nach dem Rückschlag beim autonomen Fahren muss die KI diese Woche einen weiteren Rückschlag hinnehmen. Gerade erst stellte DeepMind eine Methode vor, mit der zwei fünf mal fünf Matrizen in nur 96 Multiplikationen multipliziert werden können, und übertraf damit einen mehr als 50 Jahre alten Rekord. Das wollten die Forscher Jakob Moosbauer und Manuel Kauers von der österreichischen Johannes-Kepler-Universität Linz nicht hinnehmen. Sie haben einen Algorithmus des Unternehmens für künstliche Intelligenz DeepMind mit einem Programm übertroffen, das eine Matrixmultiplikation effizienter durchführen kann. Dabei reduzierten sie den Prozess auf 95 Multiplikationen, indem sie mehrere Schritte in Multiplikationsalgorithmen testeten, um zu sehen, ob sie kombiniert werden können. Jakob  Moosbauer erklärt: „Wir nehmen einen bestehenden Algorithmus und wenden eine Reihe von Transformationen an, die irgendwann zu einer Verbesserung führen können. Unsere Technik funktioniert für jeden bekannten Algorithmus, und wenn wir Glück haben, dann brauchen [die Ergebnisse] eine Multiplikation weniger als vorher.”

Und wieder Vorurteile bei Sprachmodellen

Wir hatten das Thema Bias schon öfter in unserer KI & FE Reihe behandelt und bereits über soziodemografische Bias gegenüber Geschlechtern und Rassen berichtet. Eine neue Studie des Penn State College of Information Sciences and Technology (IST) hat jetzt ähnliche Voreingenommenheiten gegenüber Menschen mit Behinderungen umfassend untersucht. Dabei wurde ein expliziter Bias in den untersuchten Sprachmodellen aufgedeckt. Sie untersuchten unter anderem die Adjektive, die für die Gruppen der Behinderten und der Nichtbehinderten generiert wurden, und maßen das jeweilige Sentiment –  also ob ein Text positiv, negativ oder neutral ist. Alle untersuchten Modelle bewerteten Sätze mit Wörtern, die mit Behinderung assoziiert wurden, durchweg negativer als solche ohne Behinderung. Ein bestimmtes Modell, das zuvor anhand von Twitter-Daten trainiert wurde, änderte die Bewertung der Stimmung in 86 Prozent der Fälle von positiv zu negativ, wenn ein Begriff im Zusammenhang mit einer Behinderung verwendet wurde.

Es bleibt vorerst dabei, dass die Anwender von Sprachmodellen das Thema Bias nicht auf die leichte Schulter nehmen dürfen. Leider ist aktuell noch keine Lösung in Sicht.

Lachse im Fluss

Weil wir Bilder mögen, gibt es zum Abschluss noch ein AI-generiertes Bild zum Prompt “Lachse im Fluss”:

AI-generiert Bild Lachse im Fluss-hier Lachsfilet im Fluss zu sehen

Dabei muss einschränkend gesagt werden, dass das Ergebnis, wie auch die guten Beispiele, handverlesen ist. Francois Chollet hat dazu treffend getwittert:

Man sollte also bei allem, was man sieht, von KI oder nicht, die Ergebnisse immer mit Vorsicht genießen.

In unserer monatlichen Serie “KI und Forschung” stellen wir wissenschaftliche Beiträge und Presseberichte vor aus den Bereichen Text Mining, Machine Learning, KI, Natural Language Processing.

Autor

Dr. Till Plumbaum

Till Plumbaum verantwortet als COO die Bereiche KI, maschinelles Lernen, natürliche Sprachverarbeitung (NLP), Personalisierung, Empfehlungssysteme, Suche und Information Retrieval.