Według raportu Harvardu, duże modele językowe (LLM) nie są tak „ludzkie”, jak się często sądzi – odzwierciedlają głównie wartości i sposoby myślenia społeczeństw zachodnich.
„WEIRD bias” w sztucznej inteligencji
Autorzy badania pokazali, że odpowiedzi GPT wykazują silne podobieństwo do osób z krajów określanych jako WEIRD (Western, Educated, Industrialized, Rich, Democratic). Wraz ze wzrostem kulturowej odległości od Stanów Zjednoczonych podobieństwo odpowiedzi GPT do ludzkich dramatycznie spadało (r = -0,70).
Konsekwencje dla edukacji i nauki
Ten efekt – nazwany przez autorów „WEIRD in, WEIRD out” – może wpływać na sposób, w jaki AI analizuje teksty, uczy się i podejmuje decyzje. Oznacza to, że narzędzia oparte na AI mogą nie odzwierciedlać doświadczeń uczniów z innych kultur, co ma znaczenie dla globalnych programów edukacyjnych i porównań wyników nauki.
To ważny sygnał dla rodziców i uczniów planujących studia zagraniczne – warto śledzić, jak różnice kulturowe wpływają na rozwój narzędzi edukacyjnych i technologicznych.
Źródło: Harvard University – Which Humans? (2023)


