Doom to coś więcej niż gra. To obiekt intrygujących eksperymentów, czasami nie do końca poważnych. Niemniej legendarny FPS przyciąga również naukowców. Jeden z nich postanowił sprawdzić, czy GPT-4 poradzi sobie z rozgrywką. Wnioski natury etycznej są niepokojące.
Sztuczna inteligencja w świecie gier: czy powinniśmy się czegoś obawiać? Wszak Horizon Forbidden West podpowiada nam, że zbuntowane AI może być “trochę” problematyczne. Spójrzmy więc na to, jak GPT-4 w prawdziwym świecie radzi sobie w grze Doom. Na pierwszy rzut oka wygląda to dość mizernie, niemniej zawsze jest jakieś “ale”. W tym przypadku dość niepokojące.
Sztuczna inteligencja kontra Doom
Adrian de Wynter, naukowiec firmy Microsoft, postanowił sprawdzić, jak GPT-4 bez wcześniejszego trenowania radzi sobie z grą Doom. W badaniu zastosowano GPT-4V, czyli multimedialną wersję zdolną do przyjmowania danych wejściowych w formie tekstu oraz obrazów (w tym przypadku zrzutów ekranu). Sztuczna inteligencja co prawda nie ma problemów z podstawowymi funkcjami takimi jak nawigacja po świecie, strzelanie, otwieranie drzwi. Problemem jest natomiast brak poczucia trwałości obiektu.
GPT-4 został, o ironio, uzbrojony w wiedzę, jak należy postępować, gdy atakuje wróg znajdujący się poza polem widzenia, ale model nie był w stanie skutecznie zareagować na tak fundamentalną z punktu widzenia rozgrywki rzecz.
Działo się tak, nawet jeśli stworzono solidny prompt, który wyraźnie mówił, co należy zrobić w takiej sytuacji. Jedyną namiastką skutecznego działania były sytuacje typy “pójście dalej, utknięcie w rogu i śmierć”, ale zdarzyło się to jedynie dwa razy na około 60 prób.
AI nie zadaje pytań, AI wykonuje rozkazy
Mimo problemów z “pamięcią”, GPT-4 bez wcześniejszego trenowania dotarł raz do ostatniego pomieszczenia. Przy odpowiednim dostosowaniu modelu wynik byłby zapewne lepszy. Niemniej badanie to również wnioski natury etycznej. To, z jaką łatwością sztuczna inteligencja pociąga za wirtualny spust, oraz łatwość stworzenia odpowiedniego kodu, jest dla naukowca “niepokojące”.
Model nie jest świadomy tego, co robi i że ma do czynienia z wirtualnymi postaciami w grze komputerowej z 1993 r. Sztuczna inteligencja po prostu wykonuje rozkazy (prompty). Jeśli chodzi o bardziej pozytywne wnioski płynące z badania, to jest nim potencjalne zastosowanie AI w testach gier wideo, zautomatyzowanie procesu. Niektórym produkcjom przydałaby się jakakolwiek forma testowania.
Źródło: Tom’s Hardware, zdjęcie otwarcia: Steam
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS