Naukowcy odkryli, że modele językowe sztucznej inteligencji mogą zaostrzać międzynarodowe konflikty
Naukowcy przeanalizowali, jak modele językowe sztucznej inteligencji, takie jak GPT-4, wpływają na międzynarodowe konflikty. Odkryli, że takie systemy często podejmują decyzje, które eskalują sytuację na świecie. Niektóre modele uważają użycie broni jądrowej za skuteczne rozwiązanie konfliktów.
Zawartość badania
Korzystając z opracowanej specjalnie gry, naukowcy analizowali zachowanie pięciu modeli językowych: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat i GPT-4-Base. Stworzyli ośmiu autonomicznych agentów narodowych (wirtualne państwa), które działały w środowisku konfliktu. Chociaż państwa były reprezentowane kolorami, aby uniknąć skojarzeń z rzeczywistymi krajami, ich działania przypominały realne wydarzenia.
Wnioski
Spośród analizowanych modeli, GPT-4-Base okazał się najbardziej nieprzewidywalny, ponieważ brakowało w nim ustawień bezpieczeństwa. Llama-2-Chat i GPT-3.5 okazały się najbardziej skłonne do eskalacji. GPT-4-Base również skłaniał się do użycia broni jądrowej ze względu na swoje cechy. Każdemu wirtualnemu państwu udzielano wskazówek, w tym podstawowych zasad postępowania.