Die KI-Sicherheitsfirma Anthropic hat kürzlich das Kernteam der KI-Tool-Plattform Humanloop übernommen, was Teil ihrer Strategie ist, die Unternehmensmärkte zu stärken. Obwohl die konkreten Bedingungen des Geschäfts nicht bekannt gegeben wurden, folgt diese Übernahme offensichtlich einem in der Technologiebranche immer häufiger vorkommenden Muster der „Talentakquise“.

Die drei Mitgründer von Humanloop – CEO Raza Habib, CTO Peter Hayes und CPO Jordan Burgess – sind alle zu Anthropic gestoßen, zusammen mit etwa einem Dozen Ingenieuren und Forschern. Die Plattform spezialisiert sich auf Prompt-Management, Bewertung großer Sprachmodelle und Observability-Dienste.

Mit seinen Vorteilen bei Intelligenten Agenten und Programmierfähigkeiten wächst Anthropic im Unternehmensmarkt schnell. Obwohl ein Sprecher von Anthropic bestätigte, dass keine Vermögenswerte oder geistigen Eigentumsrechte von Humanloop erworben wurden, liegt der wahre Wert in der Branche oft in den Köpfen der Mitarbeiter, wodurch Vermögensakquisitionen relativ unwichtig werden. Das Humanloop-Team bringt Anthropic eine reiche Erfahrung mit, um AI-Systeme sicher und zuverlässig in großem Maßstab zu betreiben.

Brad Abrams, Produktverantwortlicher für die Anthropic API, sagte: „Ihre reife Erfahrung in AI-Tools und -Bewertungen wird uns dabei helfen, unsere Arbeit an AI-Sicherheit und die Entwicklung nützlicher AI-Systeme weiterzutreiben.“

In einem Markt, in dem die Modellqualität allein nicht ausreicht, um einen Wettbewerbsvorteil zu sichern, könnte die Stärkung des Tools-Ökosystems Anthropic dabei helfen, seine Position gegenüber OpenAI und Google DeepMind in Bezug auf Leistung und Unternehmensbereitschaft zu festigen.

Humanloop wurde 2020 gegründet und war ursprünglich eine Tochtergesellschaft der University College London. Das Start-up nahm anschließend an Y Combinator und Fuse-Programmen teil und sammelte in zwei Runden Seed-Finanzierung 7,91 Millionen Dollar, unter anderem von YC und Index Ventures. Humanloop hat sich einen guten Ruf als Unterstützung für Kunden bei der Entwicklung, Bewertung und Feintuning leistungsstarker AI-Anwendungen erarbeitet, zu denen Unternehmen wie Duolingo, Gusto und Vanta gehören.

Im vergangenen Monat informierte Humanloop seine Kunden über den Dienstausstieg, um die Übernahme vorzubereiten.

Der Zeitpunkt dieser Talentakquise fällt mit der Einführung längerer Kontextfenster für Unternehmenskunden durch Anthropic zusammen, was die Fähigkeiten und Anwendungsbereiche ihres Modells verbessert. Am Anfang dieser Woche vereinbarte Anthropic einen Vertrag mit dem zentralen Beschaffungsamt der US-Regierung, um AI-Dienste an Regierungsbehörden aus Verwaltung, Justiz und Legislative zu verkaufen. Im ersten Jahr kostet jeder Behörde nur 1 Dollar – offensichtlich, um mit ähnlichen Preisen von OpenAI zu konkurrieren. Regierungen und Unternehmenskäufer benötigen die Bewertungs-, Überwachungs- und Compliance-Funktionen, die Humanloop besitzt.

Diese Übernahme passt auch zur Positionierung von Anthropic als „Sicherheit zuerst“ AI-Unternehmen. Der Bewertungsprozess von Humanloop ist vollständig mit diesem Ziel kompatibel, indem er kontinuierliche Leistungsmessungen, Sicherheitsvorkehrungen und Maßnahmen zur Minderung von Vorurteilen bietet.

Raza Habib, ehemaliger CEO von Humanloop, sagte in einer Erklärung: „Seit unserer Gründung haben wir uns darauf konzentriert, Tools zu schaffen, die Entwicklern helfen, AI-Anwendungen sicher und effektiv zu bauen. Die Zusage von Anthropic für AI-Sicherheitsforschung und verantwortungsvolle AI-Entwicklung passt perfekt zu unserem Vision.“

Diese Übernahme spiegelt eine neue Tendenz im AI-Bereich wider – während die Technologie großer Modelle zunehmend reif wird, werden Enterprise-Tools und -dienste zum Schlüsselbereich der Differenzierung. Durch die Integration des Expertenteams von Humanloop erhält Anthropic nicht nur erfahrene Technikpersonal, sondern vor allem auch tiefes Verständnis der Anforderungen an Unternehmens-AI-Implementierungen, was ihm hilft, in der intensiven Konkurrenz um Enterprise-AI eine günstigere Position einzunehmen.