Prozess-automatisierung mit Machine Learning
Effektivität und Effizienz steigern
Sie wollen komplexe, wiederkehrende Handlungen automatisieren? Mit Machine Learning lassen sich schnell und effizient Muster erkennen, Vorhersagen treffen und Prozesse optimieren. Wir beraten und unterstützen Sie dabei, Machine-Learning-Potenziale für Ihr Unternehmen zu identifizieren und helfen Ihnen, IT-Systeme auf Ihre Abläufe zu trainieren um Ihre Workflows zu optimieren.

Machine Learning
Problemlösung mit selbstlernenden Systemen
Machine Learning ist ein Teilgebiet der Künstlichen Intelligenz. Dabei lernen IT-Systeme, selbstständig aus großen Datenmengen Muster, Zusammenhänge und Abhängigkeiten zu erkennen und auf unbekannte Daten anzuwenden. Damit IT-Systeme selbständig solche Entscheidungen treffen können, müssen die Algorithmen trainiert und ein auf die Fragestellung bezogenes Modell entwickelt werden. Der Trainingsprozess erfolgt zyklisch, wobei bestehende Modelle getestet und kontinuierlich optimiert werden.
Unternehmen können so automatisiert Entscheidungen treffen und die Effizienz ihrer Prozesse deutlich verbessern.
- Wahrscheinlichkeiten berechnen
- Vorhersagen treffen
- Prozesse optimieren
- Schlussfolgerungen ziehen
Unsere Services
Wir helfen Ihnen, Ihre Daten und Prozesse in Hinblick auf den Einsatz von Machine Learning zu bewerten und vorzubereiten, sowie ein passendes Modell für Ihren Anwendungsfall zu identifizieren, zu trainieren und in Produktion zu bringen.
Business Understanding
Für den erfolgreichen Einsatz von Machine-Learning-Verfahren sind Erwartungen und Geschäftsnutzen in Einklang zu bringen. Deshalb erarbeiten wir mit Ihnen gemeinsam, mit welchem Ansatz sich Ihre Fragestellungen lösen lassen, ob Machine Learning grundsätzlich geeignet ist und welche Ressourcen (Daten, Hardware, Personen) dazu vorhanden bzw. nötig sind.
Data Understanding
Welche Daten stehen zur Verfügung und welche Daten sind notwendig für automatisierte Prozesse. Wir verschaffen uns einen ersten Überblick über die zur Verfügung stehenden Daten und deren Qualität, um Datenqualität Ihres Vorhabens zu bewerten.
Datenaufbereitung
Um ein Modell mit entsprechenden Daten trainieren zu können, sind ausreichend gelabelte Trainingsdaten notwendig. Wir eruieren vorhandene Daten nach Art und Menge, schließen ggf. Datenlücken, evaluieren Wege zur Datenerhebung und identifizieren mögliche Qualitätsprobleme.
Architektur & Modelle
Ganz gleich, welche Fragestellung Sie beantworten möchten – mit unserer Expertise wählen wir die passende Architektur und Modelle aus, die den größtmöglichen Trainingserfolg erzielen und auf Ihr Ziel ausgerichtet sind.
Modelltraining
Vor einem Training bestimmen wir die passende Architektur für die gelabelten Daten und trainieren je nach Fragestellung und Ziel mit bereits vorhandenen, individuell angepassten oder auch neuen eigenen Modellen. Unser Ziel: ein kundenindividuelles Modell mit den besten Ergebnissen.
Evaluation
In Form eines Workshops präsentieren und visualisieren wir Ihnen die Ergebnisse aus der Trainingsphase und bewerten gemeinsam, inwieweit das trainierte Modell bereits erfolgreich produktiv eingesetzt werden kann oder noch weiter angepasst und optimiert werden sollte.
Wir arbeiten sowohl in unseren Forschungs- als auch unseren Kundenprojekten mit unterschiedlichen Modellen und Methoden. Wir verarbeiten sowohl strukturierte als auch unstrukturierte Daten und sind in der Lage, Informationen aus Texten, Bildern, Audios oder Videos für das maschinelle Lernen aufzubereiten. Dabei setzen wir Neuronale Netze, Support Vector Machines oder klassische Expertensysteme ein. Aber auch für numerische Daten haben wir Big-Data- und BI-Lösungen zur Hand.
Feature
Labeling
- Während der Lernphase eines Modells ist es notwendig, mit Labeln zu arbeiten. Sie erleichtern das Lernen und dienen zur Kontrolle, inwiefern das Modell richtige oder falsche Ergebnisse zuordnet. Auf dieser Basis kann das neuronale Netz anschließend selbständig die Label in Form von Kategorien oder Zahlenwerten erkennen. Mit unseren Label-Tools reichern wir Trainingsdaten mit passenden Labels an.
Feature
Fine Tuning
- Um die Ergebnisqualität von Modellen zu optimieren, geben wir bereits trainierten Modellen einen Feinschliff und trainieren das Modell auf Ihre speziellen Anwendungsfall weiter. Dadurch weisen die Ergebnisse eine höhere Genauigkeit auf. Im Fine Tuning werden eingeschränkte Datensätze genutzt, wodurch sich die Trainingsphasen verkürzen und weniger Ressourcen verwendet werden.
Feature
Promt Engineering
- Large Language Models (LLM) wie ChatGPT können großes leisten, dafür müssen sie aber richtig gesteuert werden. Dies geschieht mit wohl überlegten Prompts. Durch unsere jahrelange Erfahrung mit LLMs entlocken wir den Modellen schnell und zielgerichtet die erwünschten Resultate. Sicherheit und Verlässlichkeit spielen dabei eine große Rolle - wir beraten Sie gerne zu den Themen Prompt Injection und Modell-Halluzinationen.
Feature
Destillation
- Da viele KI-Modelle hohe Rechenleistungen benötigen und viele Datenpunkte bedienen, die für Ihre spezifische Anwendung nicht notwendig sind, komprimieren wir KI-Modelle auf ihre Notwendigkeiten. Mittels Destillation reduzieren wir die Rechenkapazitäten, beschleunigen die Auslieferung von Ergebnissen - und reduzieren ganz nebenbei auch den CO2-Verbrauch.
Feature
Hosting und Deployment
- Für die Testphase und vor der Komprimierung sind meist große Serverkapazitäten von mehreren Grafik- oder Tensor-Prozessoren vonnöten. Um hierbei Ressourcen und Lasten optimal zu verteilen, setzen wir auf Container-Orchestrierung mit Kubernetes. Ganz gleich ob in der Cloud oder auf dedizierten Servern - wir sorgen für einen kostengünstigen und sicheren Rechenbetrieb, unterstützen beim Deploymentprozess und beraten Sie zu geeigneten Angeboten und Sicherheitsaspekten.
Überzeugen Sie sich selbst
Kundenprojekte

G+J Digital Products
Für die Erstellung einer Content Curation Engine des Gruner+Jahr Verlages werden Texte aus 1.500 Web-Datenquellen für Redakteure aufbereitet, mit verschiedenen Methoden des Maschine Learning nach sprachlicher und inhaltlicher Qualität bewertet und nach verschiedenen Kriterien klassifiziert.
- Entitätenerkennung
- Klassifizierung der Mediathek
- Sprachliche Analyse mit Machine Learning & NLP

PMG
Alle Texte in der PMG Pressedatenbank werden semantisch mit NLP Methoden analysiert, klassifiziert und unter Verwendung von maschinellem Lernen angereichert, um die Suchfunktion auf dem Portal zu optimieren.
- Entitätenerkennung
- Semantische Analyse
- Schlüsselworterkennung

Digitalagentur Berlin
Für die Digitalagentur Berlin wurden 10.000 Förderanträge analysiert und mittels NLP-Methoden inhaltlich ausgewertet und klassifiziert. Ziel war es, zu verstehen, was die Förderziele und Themen der Unternehmen waren und was für konkrete Anschaffungen oder Arbeiten gefördert wurden.
- Klassifikation von Förderzielen
- Themenerkennung
- Entitätenerkennung
