Outbyte PC Repair

Google schweigt sich über die Einholung einer Genehmigung für das Training von Gemini anhand der Ergebnisse von Claude aus

Google schweigt sich über die Einholung einer Genehmigung für das Training von Gemini anhand der Ergebnisse von Claude aus

Googles Gemini-KI-Training sorgt für Aufsehen

Ein aktueller Bericht von TechCrunch hat einige interessante Methoden enthüllt, die Google beim Training seiner Gemini-KI verwendet. Im Rahmen dieses Entwicklungsprozesses hat Google Vertragspartner beauftragt, die die Ergebnisse der KI nach verschiedenen Kriterien wie Genauigkeit, Klarheit und Sicherheit bewerten sollen. Bemerkenswert an dieser Situation ist die Tatsache, dass diese Vertragspartner das große Sprachmodell (LLM) von Anthropic, Claude, als Benchmark zum Vergleich der von Gemini generierten Antworten verwenden.

Ungewöhnliche Ergebnisse bei Vergleichen

Bei jüngsten Beobachtungen entdeckten Vertragspartner, die innerhalb der internen Analyseplattform von Google arbeiteten, ein unerwartetes Problem: Eine der Claude zugeschriebenen Ausgaben wurde als Antwort von Gemini präsentiert. Bei genauerer Betrachtung stellte sich heraus, dass mehrere Antworten Claudes Eigenschaften aufwiesen, insbesondere in Bezug auf die Sicherheit. Ein bemerkenswertes Beispiel war beispielsweise, dass Claude es ablehnte, als anderer KI-Assistent an Rollenspielen teilzunehmen, was die Aufmerksamkeit auf den vorsichtigen Ansatz des Modells lenkte.

Auswirkungen der Servicebedingungen von Anthropic

Die expliziten Servicebedingungen von Anthropic machen die Situation noch komplizierter . Diese Bedingungen verbieten eindeutig die Verwendung von Claudes Ergebnissen für die Entwicklung konkurrierender Produkte:

Nutzungsbeschränkungen. Der Kunde darf nicht versuchen (a) auf die Dienste zuzugreifen, um ein konkurrierendes Produkt oder einen konkurrierenden Dienst zu entwickeln, einschließlich der Schulung konkurrierender KI-Modelle, es sei denn, dies wurde ausdrücklich von Anthropic genehmigt; (b) die Dienste zurückzuentwickeln oder zu duplizieren; oder (c) den Versuch eines Dritten zu unterstützen, eines der in diesem Satz eingeschränkten Verhaltensweisen auszuführen. Der Kunde und seine Benutzer dürfen die Dienste nur in den Ländern und Regionen nutzen, die Anthropic derzeit unterstützt.

Googles unverbindliche Antwort

Auf die Frage von TechCrunch, ob sie die erforderlichen Genehmigungen von Anthropic zur Nutzung von Claudes Ergebnissen eingeholt hätten, war Googles Antwort alles andere als eindeutig. Shira McNamara, eine Sprecherin von DeepMind, kommentierte:

Selbstverständlich vergleichen wir im Einklang mit der branchenüblichen Vorgehensweise in einigen Fällen die Modellergebnisse als Teil unseres Bewertungsprozesses.

Navigieren in der KI-Landschaft

Während modellübergreifende Vergleiche in der KI-Entwicklung eine gängige Praxis sind, bei der Unternehmen ihre Modelle mit denen der Konkurrenz vergleichen, um die Leistung zu messen und Verbesserungen zu entwickeln, wirft die direkte Nutzung oder Nachahmung der Ergebnisse eines anderen Modells ohne ausdrückliche Zustimmung erhebliche ethische Fragen auf. Diese Situation entsteht, während die KI-Branche immer wettbewerbsintensiver wird. Google hat kürzlich eine experimentelle Version von Gemini eingeführt, die Berichten zufolge OpenAIs GPT-4o in mehreren Bewertungskategorien übertrifft. Unterdessen entwickelt Anthropic Claude weiter und bietet kürzliche Verbesserungen, die vielseitige Gesprächsstile und ein integriertes Tool zum Schreiben und Ausführen von JavaScript-Code direkt in der Benutzeroberfläche ermöglichen.

Quelle und Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert