A A+ A++

Doom to coś więcej niż gra. To obiekt intrygujących eksperymentów, czasami nie do końca poważnych. Niemniej legendarny FPS przyciąga również naukowców. Jeden z nich postanowił sprawdzić, czy GPT-4 poradzi sobie z rozgrywką. Wnioski natury etycznej są niepokojące.

Sztuczna inteligencja w świecie gier: czy powinniśmy się czegoś obawiać? Wszak Horizon Forbidden West podpowiada nam, że zbuntowane AI może być “trochę” problematyczne. Spójrzmy więc na to, jak GPT-4 w prawdziwym świecie radzi sobie w grze Doom. Na pierwszy rzut oka wygląda to dość mizernie, niemniej zawsze jest jakieś “ale”. W tym przypadku dość niepokojące.

Sztuczna inteligencja kontra Doom

Adrian de Wynter, naukowiec firmy Microsoft, postanowił sprawdzić, jak GPT-4 bez wcześniejszego trenowania radzi sobie z grą Doom. W badaniu zastosowano GPT-4V, czyli multimedialną wersję zdolną do przyjmowania danych wejściowych w formie tekstu oraz obrazów (w tym przypadku zrzutów ekranu). Sztuczna inteligencja co prawda nie ma problemów z podstawowymi funkcjami takimi jak nawigacja po świecie, strzelanie, otwieranie drzwi. Problemem jest natomiast brak poczucia trwałości obiektu.

GPT-4 został, o ironio, uzbrojony w wiedzę, jak należy postępować, gdy atakuje wróg znajdujący się poza polem widzenia, ale model nie był w stanie skutecznie zareagować na tak fundamentalną z punktu widzenia rozgrywki rzecz.

Uruchom wideo

Działo się tak, nawet jeśli stworzono solidny prompt, który wyraźnie mówił, co należy zrobić w takiej sytuacji. Jedyną namiastką skutecznego działania były sytuacje typy “pójście dalej, utknięcie w rogu i śmierć”, ale zdarzyło się to jedynie dwa razy na około 60 prób.

AI nie zadaje pytań, AI wykonuje rozkazy

Mimo problemów z “pamięcią”, GPT-4 bez wcześniejszego trenowania dotarł raz do ostatniego pomieszczenia. Przy odpowiednim dostosowaniu modelu wynik byłby zapewne lepszy. Niemniej badanie to również wnioski natury etycznej. To, z jaką łatwością sztuczna inteligencja pociąga za wirtualny spust, oraz łatwość stworzenia odpowiedniego kodu, jest dla naukowca “niepokojące”. 

Model nie jest świadomy tego, co robi i że ma do czynienia z wirtualnymi postaciami w grze komputerowej z 1993 r. Sztuczna inteligencja po prostu wykonuje rozkazy (prompty). Jeśli chodzi o bardziej pozytywne wnioski płynące z badania, to jest nim potencjalne zastosowanie AI w testach gier wideo, zautomatyzowanie procesu. Niektórym produkcjom przydałaby się jakakolwiek forma testowania.

Źródło: Tom’s Hardware, zdjęcie otwarcia: Steam

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułRafał Karaś: I’m So Excited. No, ja panie…niestety nie
Następny artykułSzkolenie lubelskich Terytorialsów z wykorzystaniem Laserowych Symulatorów Strzelań (LSS)