Szkolenie Gemini AI firmy Google budzi zdziwienie
Niedawny raport TechCrunch ujawnił kilka intrygujących metodologii stosowanych przez Google w szkoleniu swojej Gemini AI. W ramach tego procesu rozwojowego Google zatrudniło wykonawców, których zadaniem jest ocena wyników AI według różnych kryteriów, w tym dokładności, przejrzystości i bezpieczeństwa. To, co czyni tę sytuację godną uwagi, to fakt, że wykonawcy ci używają dużego modelu językowego (LLM) firmy Anthropic, Claude, jako punktu odniesienia do porównywania odpowiedzi generowanych przez Gemini.
Nietypowe odkrycia podczas porównań
W ostatnich obserwacjach wykonawcy pracujący na wewnętrznej platformie analitycznej Google odkryli nieoczekiwany problem: jeden z wyników przypisywanych Claude’owi został przedstawiony jako odpowiedź Gemini. Dalsza analiza wykazała, że kilka odpowiedzi wykazywało cechy Claude’a, szczególnie pod względem bezpieczeństwa. Na przykład jeden godny uwagi przykład dotyczył Claude’a, który odmówił udziału w scenariuszach odgrywania ról jako inny asystent AI, zwracając uwagę na ostrożne podejście modelu.
Konsekwencje Warunków korzystania z usług Anthropic
Dodanie warstwy złożoności do tej sytuacji to wyraźne warunki korzystania z usługi określone przez Anthropic. Warunki te wyraźnie zabraniają wykorzystania wyników Claude’a do rozwoju konkurencyjnych produktów:
Ograniczenia użytkowania. Klient nie może i nie powinien podejmować prób (a) uzyskiwania dostępu do Usług w celu zbudowania konkurencyjnego produktu lub usługi, w tym trenowania konkurencyjnych modeli AI, z wyjątkiem przypadków wyraźnie zatwierdzonych przez Anthropic; (b) dokonywania inżynierii wstecznej lub duplikowania Usług; lub (c) wspierania prób osób trzecich w jakimkolwiek zachowaniu objętym ograniczeniami w tym zdaniu. Klient i jego Użytkownicy mogą korzystać z Usług wyłącznie w krajach i regionach, które Anthropic obecnie obsługuje.
Niezobowiązująca odpowiedź Google
Zapytana przez TechCrunch o to, czy uzyskali niezbędne pozwolenia od Anthropic na wykorzystanie wyników Claude’a, odpowiedź Google była mniej niż jednoznaczna. Shira McNamara, rzeczniczka DeepMind, skomentowała:
Oczywiście, zgodnie ze standardową praktyką branżową, w niektórych przypadkach porównujemy wyniki modeli w ramach naszego procesu oceny.
Poruszanie się po krajobrazie sztucznej inteligencji
Podczas gdy porównania międzymodelowe są powszechną praktyką w rozwoju AI, gdzie firmy porównują swoje modele z konkurentami, aby ocenić wydajność i opracować ulepszenia, akt bezpośredniego wykorzystania lub naśladowania wyników innego modelu bez wyraźnej zgody rodzi poważne pytania etyczne. Sytuacja ta rozwija się, gdy branża AI staje się coraz bardziej konkurencyjna. Google niedawno wprowadziło eksperymentalną wersję Gemini, która podobno przewyższa GPT-4o OpenAI w kilku kategoriach oceny. Tymczasem Anthropic nadal rozwija Claude, z ostatnimi ulepszeniami, które umożliwiają wszechstronne style konwersacyjne i zintegrowane narzędzie do pisania i wykonywania kodu JavaScript bezpośrednio w jego interfejsie.
Dodaj komentarz