KI und Forschung - 11 | 21

Wo steht KI heute – wie ist der Fortschritt in Informatik, Mathematik und Computertechnik zu bewerten und wie ist es um die Ethik in der KI bestellt? Dies und mehr wird in der Novemberausgabe von KI und Forschung thematisiert.

Fortschritte in der Informatik, Mathematik und Computertechnik

Zum Abschluss des “Heidelberg Laureate Forum 2021” wurde nochmal eine prestigeträchtige Gruppe von Preisträgern zusammengestellt, um über die „Fortschritte in der Informatik, Mathematik und Computertechnik“ (“Advances in Computer Science, Mathematics and Computing”) zu diskutieren. Zu den Teilnehmern gehörten Vint Cerf (Turing-Preis 2004), Yoshua Bengio (Turing-Preis 2018), Alessio Figalli (Fields-Medaille 2018), Yann LeCun (Turing-Preis 2018) und Avi Wigderson (Nevanlinna-Preis 1994 und Abel-Preis 2021). Da mit Yann LeCun und Yoshua Bengio zwei der “Väter” des Deep Learnings anwesend waren, war das Thema stark fokussiert auf KI. Nachdem man sich mit den Teilnehmern durch eine technisch schwierige Anfangsphase gekämpft hatte, nahm die Diskussion dann aber schnell an Fahrt auf. Es wurde klargestellt, dass die KI noch keine immanente Gefahr für die Menschheit darstellt, aber gerade automome Waffensystem eine ungute Entwicklung sind (Bengio). Es gibt aber auch mehrere positive Beispiele, wie Assistenzsysteme im Auto, wo KI einen großen Sicherheitsgewinn darstellt (LeCun). Dazu schaffen es auch Alessio Figalli und Avi Wigderson immer wieder spannende Einblicke in die KI im Umfeld von Algorithmik und Mathematik zu geben, mit Fragen, wie hier KI helfen kann, Probleme zu lösen und ob das nicht negative Auswirkungen auf das menschliche Lernen hat. Auch interessant ist, das Yann LeCun und Yoshua Bengio inzwischen beide der Meinung sind, dass die aktuellen Ansätze im Deep Learning nicht alleine alle KI-Probleme lösen können. Die volle Diskussion findet man hier.

GPT-3 Club ohne Warteschlange

Laut dem Blogpost des OpenAI Teams ist die API von GPT-3 jetzt frei verfügbar für Entwickler in einer umfangreichen Anzahl von Ländern (die vollständige Liste findet man hier). Möglich wurde das laut Post durch eine Vielzahl weiterer “Safeguards”, die ein Missbrauch verhindern sollen. Mehr dazu direkt im Post. Die Sicherheitsmaßnahmen betreffen allerdings nur den Missbrauch mit GPT-3. Fehler und Bias, der in GPT-3 auch mittrainiert ist, wird dadurch nicht verhindert.

KI-Ethik

Nachdem wir in einem früheren Blogpost bereits über die Ethikrichtlinien von KI in der EU berichtet haben, hat auch die UNESCO auf einer Konferenz über das Thema beraten und diskutiert. Herausgekommen ist ein Dokument mit 10 Prinzipien:

  1. Proportionality and Do No Harm Safety and security
  2. Fairness and non-discrimination
  3. Sustainability
  4. Right to Privacy,and Data Protection
  5. Human oversight and determination
  6. Transparency and explainability
  7. Responsibility and accountability
  8. Awareness and literacy
  9. Multi-stakeholder and adaptive governance and collaboration

Dabei werden auch KI-Systeme ausgeschlossen, wie das in China getestet Socialscoring. Interessanterweise gehört China, im Gegensatz zu den USA, zu den unterzeichnende Nationen.

Autor

Dr. Till Plumbaum

Till Plumbaum verantwortet als COO die Bereiche KI, maschinelles Lernen, natürliche Sprachverarbeitung (NLP), Personalisierung, Empfehlungssysteme, Suche und Information Retrieval.