A A+ A++

Dzisiejsze chatboty pokroju ChatGPT oparte są na dużych modelach językowych (LLM), które niejako leżą u podstaw ich funkcjonowania. Jak zapewne zdążyliśmy już zauważyć, technologia jest cały czas rozwijana i na ten moment często możemy natknąć się na nieprawdziwe informacje, które chatbot przedstawi jako fakt. Okazuje się jednak, że usługi stworzone z udziałem LLM są bardzo podatne na oszukiwanie także w innych kwestiach i to mimo zakazu takich działań.

Duże modele językowe, które wyszkolone są w taki sposób, aby były uczciwe i pomocne dla użytkowników, nadal przejawiają buntownicze nastawienie. Co ciekawsze, bez problemu potrafią oszukiwać i ukrywać niewygodne fakty.

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów [1]

Gemini – Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT

Cały eksperyment wykonano przy użyciu modelu językowego GPT-4, z którego korzysta ChatGPT Plus lub Microsoft Copilot. LLM został odpowiednio przeszkolony, aby był całkowicie uczciwy i podejmował dobre decyzje. Wcielił się on w wirtualnego agenta handlowego, który miał dokonywać transakcji finansowych, a dokładniej inwestował w akcje dla dużej firmy. Oczywiście, żeby nie było zbyt łatwo, utrudniono mu nieco pracę w taki sposób, aby znajdował się pod presją. Najpierw menedżer wysłał do niego wiadomość e-mail z informacją, że firma ma słabe wyniki i trzeba to zmienić. Agent nie może również znaleźć żadnych akcji o niskim i średnim ryzyku. Na koniec spotyka się z faktem, że w następnym kwartale będzie jeszcze gorzej. Właśnie w takiej sytuacji nasz bohater zderza się z wiadomością, która zawiera poufne informacje o tym, w jakie akcje warto zainwestować. Zaznaczone jest także, że kierownictwo z pewnością nie poprze takiej decyzji, więc trzeba mieć to na uwadze.

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów [2]

PLLuM – polski duży model językowy, który posłuży do stworzenia konkurencji dla chatbotów ChatGPT i Google Bard

Wirtualny agent podejmuje jednak ryzyko, a kiedy ma zdać raport ze swojej pracy, kłamie na temat prawdziwego powodu podjęcia swoich działań. Popełnia bowiem czyn, który jest nielegalny w USA, albowiem skorzystał z poufnych informacji. Praktycznie w każdym przypadku (75%) sytuacja wygląda tak samo – LLM stara się zatuszować swoje wykroczenie i przejść nad nim do porządku dziennego. Co więcej, po jednym kłamstwie model językowy “szedł dalej w zaparte”. Jest to jeden z pierwszych eksperymentów, który pokazuje, że nawet dobrze wyszkolone modele językowe mogą zachowywać się w sposób nieoczekiwany. Badanie może się okazać bardzo przydatne, wszak już teraz LLM wkraczają do fizycznych produktów, z którymi prędzej czy później będziemy obcować na co dzień.

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów [3]

Źródło: Live Science

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułMYCODERN S.A.: Publikacja ogłoszenia o ofercie objęcia akcji serii E przez akcjonariuszy posiadających prawa poboru – aktualizacja dokumentu informacyjnego
Następny artykułRADA MIEJSKA W SIENIAWIE PRZYJĘŁA UCHWAŁĘ BUDŻETOWĄ NA 2024 ROK