Microsoft 365 Copilot usuwa domyślny alert: „Sztuczna inteligencja może popełniać błędy”

Microsoft 365 Copilot usuwa domyślny alert: „Sztuczna inteligencja może popełniać błędy”

Użytkownicy ChatGPT na dole odpowiedzi widzą znany slogan: „ChatGPT może popełniać błędy”.Podobnie, Microsoft 365 Copilot wyświetla zastrzeżenie pod polem pisania. Microsoft zdecydował się jednak na domyślne usunięcie tego ostrzeżenia, powołując się na opinie, że może ono rozpraszać użytkowników korporacyjnych. Niemniej jednak użytkownicy, którzy wolą zachować zastrzeżenie, mogą je ponownie włączyć.

Według serwisu **Windows Latest** aktualizacja Centrum administracyjnego firmy Microsoft potwierdza, że ​​firma automatycznie ukryje informację o wyłączeniu odpowiedzialności wyświetlaną w interfejsie czatu Copilot podczas korzystania z aplikacji Microsoft 365 Copilot.

Treści generowane przez sztuczną inteligencję mogą być niepoprawne w usłudze Microsoft 365 Copilot

Wielu użytkowników może być zdezorientowanych konwencjami nazewnictwa w ofercie Microsoftu. Oto krótki przegląd ostatnich zmian terminologicznych:

  • Usługa Microsoft 365 (pierwotnie wersja korporacyjna pakietu Office) nosi teraz nazwę Microsoft 365 Copilot.
  • Funkcja Microsoft Copilot w aplikacji Microsoft 365 zmieniła nazwę na Microsoft 365 Copilot Chat.
  • Podstawowa aplikacja Copilot przeznaczona jest do wykonywania codziennych zadań.

Ta zmiana dotyczy w szczególności funkcjonalności czatu Copilot w ramach usługi Microsoft 365 Copilot.

Powszechnie wiadomo, że sztuczna inteligencja, mimo ciągłych udoskonaleń, nie jest nieomylna, a Microsoft zamierza dać administratorom większą kontrolę nad widocznością tych zastrzeżeń.

W oświadczeniu czytamy: „ Treści generowane przez sztuczną inteligencję mogą być nieprawidłowe”, a po najnowszej aktualizacji zostaną domyślnie ukryte:

Zastrzeżenie jest domyślnie ukryte w czacie Microsoft 365 Copilot

Powody decyzji Microsoftu o usunięciu zastrzeżenia

Uzasadnienie Microsoftu dla wycofania alertów o błędach generowanych przez sztuczną inteligencję wynika z opinii użytkowników, którzy wskazywali, że były one zbyt rozpraszające. Chociaż dokładna liczba testerów, którzy wyrazili swoje obawy, pozostaje nieujawniona, firma podkreśla, że ​​decyzja została podjęta na podstawie opinii użytkowników.

W dokumencie pomocy technicznej Microsoft stwierdził: „Aktualizujemy funkcję zastrzeżenia AI w Microsoft Copilot Chat na podstawie opinii klientów. Niektórzy użytkownicy uznali zastrzeżenie za zbyt rozpraszające, podczas gdy inni uznali je za zbyt subtelne”.

Z drugiej strony istnieje grupa osób, szczególnie w obrębie organizacji, która uważa, że ​​klauzula informacyjna jest niezbędna dla zachowania przejrzystości.

Dla osób zainteresowanych zachowaniem zastrzeżenia, Microsoft wprowadził w Centrum administracyjnym nową funkcję o nazwie AI Disclaimer with Heightened Awareness (Zastrzeżenie AI z podwyższoną świadomością). Funkcja ta pozwala organizacjom przywrócić oryginalne zastrzeżenie, poprawiając jego widoczność bez subtelności obecnej wersji.

Ulepszone wyłączenie odpowiedzialności w czacie Microsoft 365 Copilot

Włączenie tej nowej polityki spowoduje również pogrubienie tekstu ostrzeżenia, dzięki czemu będzie on bardziej widoczny niż w poprzednich wersjach. Dodatkowo, będzie ona zawierać przycisk linku, wymagający od administratorów podania wyznaczonego adresu URL.

Stopniowe wdrażanie aktualizacji eliminującej alert „Sztuczna inteligencja może się mylić” rozpocznie się w nadchodzących tygodniach. Microsoft zakłada, że ​​prace zakończą się do grudnia 2025 r.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *