ontolux bei der Buzzwords 2022

Die Buzzwords Berlin konzentriert sich auf Themen wie Open-Source-Softwareprojekte, Suche, Speicherung, Streaming und Verarbeitung von großen Datenmengen. Qi Wu von der KI-Agentur ontolux stellt in ihrem Vortrag Methoden zur Ressourceneinsparung von KI-Modellen mittels Knowledge Destillation vor.

Vom 12. bis 14. Juni 2022 findet die Buzzwords wieder live in Berlin statt.
Die Konferenz versteht sich als eine Art Plattform für Entwickler, Ingenieure, IT-Architekten, Analysten und Datenwissenschaftler, die sich mit Information Retrieval, der Durchsuchbarkeit großer Datenmengen, NoSQL und Big Data Processing beschäftigen. In vier parallelen Slots werden mehr als 60 Vorträge in Englisch gehalten.  

Qi Wu – Machine Learning Engineer bei ontolux eröffnet am 13.06.2022 um 11:00 Uhr den Tag im Maschinenhaus der Kulturbrauerei mit ihrem Vortrag “Compress giant language models to effective and resource-saving models using knowledge distillation”.

Inhalt des Vortrages:

Über die letzten Jahre hat sich die Forschung im Bereich Natural Language Processing (NLP) zunehmend Sprachmodellen zugewandt. Trotz ihrer kurzen Geschichte werden sie erfolgreich eingesetzt und liefern erstaunliche Ergebnisse bei ganz verschiedenen textbezogenen Aufgaben wie zum Beispiel Übersetzungen, Question Answering, Information Extraction und intelligenter Suche.

Trotz all ihrer erstaunlichen Fähigkeiten vergessen wir jedoch gern, dass Sprachmodelle nicht nur daten- sondern auch energiehungrig sind. Hochmoderne Sprachmodelle wie BERT, RoBERTa und XLNet verarbeiten innerhalb der Trainingsphase Millionen von Parametern, was nur mithilfe von Dutzenden hochentwickelter Chips möglich wird. Das dadurch erzeugte CO2 ist dabei um ein Vielfaches höher als der durchschnittliche Verbrauch eines Autos über seine gesamte, durchschnittliche Lebensdauer hinweg. Solch einen hohen Energieverbrauch zu verantworten, fällt in Zeiten des Klimawandels nicht leicht. 

Damit Unternehmen von der Leistung aktueller Modelle profitieren, ohne ihre Rechenkosten zu stark zu strapazieren, gilt es die verwendeten Modelle auf ein Minimum zu reduzieren. Die Leistungsfähigkeit soll darunter natürlich nicht leiden. Ein mögliches Mittel dafür ist die sogenannte Knowledge Destillation, eine gängige Methode unter verschiedenen Komprimierungsmethoden für Sprachmodelle. Im Vortrag zeigt Qi Wu Ihnen verschiedene Optionen, wie Modelle komprimiert und beschleunigt werden können. Unser Fokus liegt insbesondere darauf, wie Sie Sprachmodelle mithilfe von gezielter Knowledge Destillation so komprimieren können, dass sie ressourcensparend eingesetzt werden können, ohne dass die Modellleistung signifikant sinkt.

Programm der Buzzwords 2022

Mehr zum Thema Methoden zur Ressourceneinsparung von KI-Modellen

Autor

Qi Wu

Qi Wu arbeitet als Machine Learning Engineer bei der Neofonie GmbH. Nach ihrem Masterstudium der Statistik hat sie sich mit maschinellem Lernen im Bereich der Verarbeitung natürlicher Sprache, wie z.B. der Informationsextraktion, beschäftigt.