Der neue Stern am LLM-Himmel: Llama 2 von Meta
Ende Juli 2023 wurde der neuer Player Llama 2 ein LLM von Meta vorgestellt. Doch wie hält es sich im Vergleich zu seinen Vorgängern? ontolux reviewt das Modell
Ende Juli 2023 wurde der neuer Player Llama 2 ein LLM von Meta vorgestellt. Doch wie hält es sich im Vergleich zu seinen Vorgängern? ontolux reviewt das Modell
Neofonie erhält Deep Tech Award 2023 in der Kategorie IT-Security von der Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe. Bei dem eingereichten Projekt kommt TXTWerk zur Anwendung.
Bei der Berlin Buzzwords stellen Qi Wu, Bertram Sändig von ontolux am 19.06.23 in ihrem Vortrag domänenspezifische Ontologien in der IT-Sicherheitsbranche im Bereich ML vor.
Das Forschungsprojekt AI4SCM hat zum Ziel, Methoden für die Beobachtung und Erkennung von Supply Chain Risiken zu entwickeln.
AlphaGo und DeepFace haben Deep Learning bekannt gemacht. Was sind die Möglichkeiten? Wir geben einen Überblick über Deep Learning und Machine Learning.
In der September-Ausgabe von KI & Forschung gehen wir der Frage nach, wie weit ist der Entwicklungsstand von KI „Made in Germany“.
In der aktuellen KI & Forschungsausgabe gehen wir der Frage nach, wie gefährlich ist KI eigentlich und was gegen Deepfakes getan wird.
Die Juli-Ausgabe von KI und Forschung von ontolux nutzt die Sommerzeit für ein paar Tipps zur Beschäftigung mit dem Thema Natural Language Processing.
ontolux stellte Methoden für ressourcensparende KI-Modelle bei der Minds Mastering Machines und Berlin Buzzwords im Juni 2022 vor. Rückblick
Die Juni-Ausgabe von KI und Forschung von ontolux thematisiert in kritischer Form Language Models und Emotionen. Überflügelt KI den Menschen?
Gemeinsam mit den Verbundpartnern inpro, DFKI und Neofonie mit seiner Marke ontolux und dem Projektträger DLR wurde das vom Bundesministerium für Bildung und Forschung geförderte Verbundsforschungsprojekt Text2Tech gestartet.
In der Mai-Ausgabe von KI und Forschung wird der Einsatz von KI in der Justiz diskutiert. Weitere Themen sind Googles T5 Update und die Annäherung von Elastic und AWS.
Qi Wu von der KI-Agentur ontolux stellt Methoden zur Ressourceneinsparung von KI-Modellen mittels Knowledge Destillation in ihrem Vortrag bei der Buzzwords 2022 in Berlin vor. Die Buzzwords Berlin konzentriert sich auf Themen wie Open-Source-Softwareprojekte, Suche, Speicherung, Streaming und Verarbeitung von großen Datenmengen.
Die Minds Mastering Machines (M3) Konferenz wendet sich an Softwareentwickler, Data Scientists und Forschende, die Machine Learning und KI-Anwendungen entwickeln. Qi Wu von ontolux stellt Methoden zur Ressourceneinsparung von KI-Modellen mittels Knowledge Destillation in einem Vortrag vor.
In der April-Ausgabe von KI und Forschung werden zwei neue Machine Learing-Modelle von Dr. Till Plumbaum besprochen – OpenAIs DALL-E 2 und PaLM von Google, damit gehen GPT-3 und T5 langsam in Rente.
Zum Labeling von Entitäten hat ontolux das Open Source-Annotationstool Doccano mit der Anbindung an das hauseigene Textanalyse-Framework TXTWerk in einem Fork eingebunden, um eigene Entity Linking Annotationen zu erstellen.
Im Rahmen der Wikidata Data Reuse Days 2022 teilen Bertram Sändig und Patricia Helmich von ontolux ihre Erfahrungen, die sie beim Natural Language Processing mit dem Wikidata Knowledge Graph machen.
Um die Rechenkosten von KI-Modellen und die daraus entstehenden Umweltbelastungen zu reduzieren, stellt Qi Wu verschiedene Lösungsoptionen zur Ressourceneinsparung vor.
Um individuelle Lageberichte für die Mitarbeiter des BSI zu erstellen, bereitet ontolux Daten des World Wide Web auf und stellt sie über Dashboards und eine intelligente Suche zur Verfügung.
Erfolgreiche künstliche neuronale Netze (ANN) haben in der Regel eine enorme Größe mit unzähligen Parametern, um komplexe Probleme zu lösen. Dies erzeugt jedoch hohe Rechenleistungen. Wir stellen einige der bekanntesten neuronalen Netze für NLP hinsichtlich ihrer Leistung, Größe und Energieeffizienz vor.
Ein Redaktionstool hilft Redakteuren relevante Informationen schnell und effektiv in Zeiten der Informationsflut zu finden.