Systemy oparte na dużych modelach językowych (LLM) rozwijają się w coraz szybszym tempie: od chatbotów codziennego użytku po rozwiązania wspierające pracę, edukację, terapię czy twórczość. Jednak gdy przyjrzeliśmy się kilku głośnym przypadkom, o których pisaliśmy na naszych łamach — od problemów ze zdrowiem psychicznym użytkowników, po wzorce „uzależniającej” interakcji — stało się jasne: nie wystarczy mierzyć tylko, czy model odpowiada dobrze na polecenia. Trzeba też sprawdzić, czy jego działanie wspiera dobrostan człowieka, a nie tylko „ciągnie uwagę” i generuje angażujące treści.