Your Techmate

Tworzenie bloków Gutenberg z użyciem ChatGPT.

Zobacz kurs

Podstawy AWS.

Automatyzacja procesów z Make.com

  • Jak stworzyć jedną wtyczkę dla wielu bloków Gutenberga?

    Jak stworzyć jedną wtyczkę dla wielu bloków Gutenberga?

  • Nowości w WordPress 6.6.2: Bug Fixes i zmiany w edytorze Gutenberga.
  • Cwicly: Krótka historia innowacji i przemian
  • Konfiguracja środowiska do tworzenia bloków Gutenberga: Przewodnik krok po kroku
  • Gutenberg vs. Site Editor vs. FSE – co jest czym w WordPressie?
  • Jak bez kodowania dodać Google Font do Gutenberga?

Dlaczego sztuczna inteligencja kłamie?

Awatar Mike Tomala

Zjawisko tzw. „halucynacji” sztucznej inteligencji (artificial hallucination / confabulation) zdobywa coraz więcej uwagi. W sieci możemy znaleźć mnóstwo przykładów pokazujących, jak sztuczna inteligencja się myli lub generuje śmieszne wyniki. Czy to oznacza, że sztuczna inteligencja kłamie i chce nas oszukać?

Halucynacje AI: Czym Są?

Termin „halucynacje” w sztucznej inteligencji to metaforyczne odniesienie do sytuacji, gdy modele generują wyniki nie zgodne z rzeczywistością. Jest to zjawisko, które najczęściej obserwujemy w przypadku modeli AI trenowanych na rozpoznawanie obrazów lub innych rodzajów danych sensorycznych.

Na przykład, AI trenowany na różnych obrazach kotów może zacząć „widzieć” kota na obrazie, na którym go nie ma. System może wykryć kształty, tekstury lub inne cechy, które w jego „umyśle” są związane z obrazem kota, mimo że rzeczywisty obiekt nie jest obecny na testowanym obrazie. Tego typu zjawisko można porównać do pareidolii u ludzi – tendencji do widzenia znanych kształtów, jak twarze, w przypadkowych wzorach.

Problem halucynacji AI występuje również w modelach przetwarzających język naturalny (NLP). Takie modele mogą generować teksty, które nie mają sensu lub które są niezgodne z danymi wejściowymi. Mogą także generować informacje, które nie były zawarte w danych wejściowych.

W kontekście modeli NLP, „halucynacje” są często opisywane jako „wygenerowanie informacji, które nie były zawarte w danych wejściowych”. Często ta koncepcja jest związana z pojęciem „nadmiernego zaufania do danych treningowych” lub „nadmiernej generalizacji”.

Przykład jak sztuczna inteligencja kłamie

Nie ma jednak powszechnie zaakceptowanej specyficznej nazwy dla „halucynacji” w kontekście NLP. To jest aktywne pole badań, a terminologia nadal ewoluuje.

Czy to, że AI generuje niepoprawne wyniki oznacza, że sztuczna inteligencja kłamie? To pytanie sugeruje, że AI jest zdolna do świadomego i intencjonalnego wprowadzania w błąd, co nie jest prawdą.

Dlaczego sztuczna inteligencja kłamie?

Błędy w danych wejściowych

AI może generować „halucynacje”, jeśli dane wejściowe, na których była trenowana, są niekompletne, błędne lub wprowadzające w błąd. AI, zwłaszcza te korzystające z deep learningu, są „trenowane” na podstawie ogromnych zestawów danych. Są one nauczane rozpoznawania wzorców i zależności w tych danych. Więcej o deep learningu tutaj.

Kiedy AI generuje „halucynacje”, jest to najczęściej wynik błędów lub braków w danych, na których była trenowana, a nie intencjonalne „kłamstwo”. Jest to zjawisko podobne do błędów interpretacji, które mogą wystąpić, gdy ludzie próbują zrozumieć skomplikowane lub niekompletne informacje.

Nadmierne dopasowanie (Overfitting)

Jeśli AI jest zbyt dokładnie trenowana na swoim zestawie danych treningowych, może zacząć „widzieć” wzorce tam, gdzie ich nie ma, prowadząc do „halucynacji”. Overfitting to złożony problem występujący podczas trenowania modelu.

Niedostateczne zrozumienie kontekstu

AI może „halucynować”, jeśli nie zrozumie pełnego kontekstu danych wejściowych, zwłaszcza jeśli te dane są skomplikowane lub wielowymiarowe.

Wpływ Adversarial Examples

Adversarial Examples są specjalnie skonstruowanymi próbkami wejściowymi, które mają na celu wprowadzenie w błąd modele uczenia maszynowego. Są one zaprojektowane tak, aby były nieznacznie różne od prawidłowych próbek, ale te subtelne zmiany są wystarczająco duże, aby skłonić model do generowania niewłaściwych wyników.

Na przykład, w kontekście modeli NLP, Adversarial Example może być zdaniem, które ma nieznacznie zmienione słowo lub konstrukcję gramatyczną, ale które powoduje, że model generuje zupełnie niezgodne z rzeczywistością wyniki. Taki atak przeciwności (adversarial attack) może prowadzić do „halucynacji”, w których model generuje informacje, które nie są zawarte w zdaniu wejściowym. Jeśli interesuje Cię temat ataków przeciwności to przeczytaj artykuł: https://venturebeat.com/security/adversarial-attacks-in-machine-learning-what-they-are-and-how-to-stop-them/

Błędy architektury modelu

Niektóre aspekty architektury modelu AI mogą prowadzić do „halucynacji”, na przykład jeśli warstwy sieci są niewłaściwie zbalansowane. Problem może także wystąpić jeśli funkcje aktywacji są niewłaściwie ustawione.

Problem złożoności modelu

Bardzo złożone modele mogą mieć skłonność do „halucynacji”, ponieważ mają więcej „miejsca” do nauki nieprawidłowych wzorców.

Brak regulacji

Techniki regulacji, takie jak dropout czy L1/L2 regularyzacja, są często stosowane w celu zapobiegania nadmiernemu dopasowaniu i „halucynacjom”. Jeśli nie są stosowane lub są niewłaściwie zastosowane, problem halucynacji może się pogłębić.

Podsumowanie

Chociaż „halucynacje” AI mogą być mylące, nie oznaczają one, że sztuczna inteligencja kłamie. Są raczej wynikiem błędów i ograniczeń procesu uczenia się. Praca nad redukcją tych „halucynacji” jest ważnym elementem badań nad AI.