Twórcy artykułu „Generative Agents: Interactive Simulacra of Human Behavior” stworzyli coś na wzór cyfrowego laboratorium społecznego. W środowisku przypominającym grę The Sims umieścili 25 wirtualnych postaci — agentów sterowanych przez dużą architekturę AI — aby sprawdzić, czy sztuczna inteligencja potrafi realistycznie naśladować ludzkie życie społeczne.
Nazwa i cel eksperymentu
Eksperyment: "Smallville – symulacja zachowań społecznych agentów generatywnych"
Celem było zbadanie, czy połączenie dużych modeli językowych (LLM) z architekturą pamięci, refleksji i planowania pozwala AI-agentom:
- prowadzić życie codzienne w sposób spójny i wiarygodny,
- tworzyć i rozwijać relacje z innymi agentami,
- koordynować wspólne działania — całkowicie bez zewnętrznego skryptowania.
Przebieg eksperymentu
-
Symulowane środowisko
- Wirtualne miasteczko „Smallville” z domami, kawiarniami, szkołą, parkiem, sklepami i innymi miejscami codziennej aktywności.
- Każdy agent miał unikalną „osobowość”, zawód, relacje społeczne i cele życiowe, zapisane jako początkowe wspomnienia.
-
Architektura agentów
-
Strumień pamięci: wszystkie obserwacje zapisywane w języku naturalnym.
-
Refleksje: generowanie ogólnych wniosków na podstawie obserwacji (np. "Klaus jest zaangażowany w swoje badania").
-
Planowanie: agenci planowali całe dni, dzieląc działania na godziny i minuty.
-
Reakcje: agenci modyfikowali swoje plany w zależności od sytuacji.
-
Interakcje społeczne
- Agenci prowadzili rozmowy, zapamiętywali je, wyciągali wnioski i rozwijali relacje.
- Przykładowy scenariusz: jedna agentka postanowiła zorganizować imprezę walentynkową — zaprosiła znajomych, przygotowała dekoracje, a pozostali agenci z własnej inicjatywy zareagowali i pojawili się na wydarzeniu.
Wnioski z eksperymentu
1. Wiarygodność zachowań
- Oceny ludzkich uczestników badania (tzw. „human evaluators”) pokazały, że pełna architektura agentów (z pamięcią, refleksją i planowaniem) generuje najbardziej realistyczne odpowiedzi i zachowania — nawet bardziej przekonujące niż odpowiedzi tworzone przez ludzi na podstawie scenariuszy.
2. Znaczenie komponentów
- Usuwanie kolejnych elementów (np. refleksji czy planowania) pogarszało jakość zachowań agentów.
- Najgorsze wyniki miały agenci pozbawieni pamięci i planów — zachowywali się niespójnie i „mechanicznie”.
3. Zdolności emergentne
- Agenci potrafili:
- rozpowszechniać informacje (np. o wyborach lokalnych),
- tworzyć relacje i zapamiętywać je,
- koordynować działania społeczne bez żadnego kodowania zachowań "na sztywno".
4. Granice i wyzwania
- Najczęstsze błędy dotyczyły:
- nieprawidłowego przywoływania wspomnień,
- „fantazjowania” na temat przeszłości (halucynacje),
- zbyt formalnego stylu wypowiedzi (efekt modelu językowego).
Dlaczego to przełom?
Ten eksperyment to coś więcej niż test technologiczny. To przykład, że AI może nie tylko reagować na środowisko, ale także aktywnie uczestniczyć w życiu społecznym — pamiętać, planować, zmieniać zdanie, reflektować. Potencjalne zastosowania obejmują:
- symulacje dla badań społecznych i psychologicznych,
- trening interpersonalny w środowiskach bezpiecznych (np. rozmowy trudne),
- projektowanie systemów interaktywnych i gier z realistycznymi postaciami.