Sztuczna inteligencjaRynek
OpenAI wprowadza nowe zasady dla nieletnich użytkowników ChatGPT
Sam Altman, prezes OpenAI, ogłosił zmiany w zasadach korzystania z ChatGPT, koncentrujące się na bezpieczeństwie osób poniżej 18. roku życia. „Uważamy, że osoby niepełnoletnie potrzebują znacznej ochrony” – poinformował.

Zmiany dla użytkowników niepełnoletnich dotyczą w szczególności rozmów na temat seksu lub samookaleczenia. I tak:
- ChatGPT nie będzie już angażował się we „flirtujące rozmowy” z nieletnimi.
- W przypadku rozmów na temat samobójstwa, system uruchomi dodatkowe zabezpieczenia, spróbuje powiadomić rodziców użytkownika, a w szczególnych przypadkach nawet policję.
- Rodzice będą mogli ustawić „godziny wyłączenia”, w których ChatGPT nie będzie dostępny dla ich dziecka.
Zmiany wprowadzono w odpowiedzi na rosnące obawy o wpływ chatbotów na zdrowie psychiczne nieletnich. Chodzi zwłaszcza o głośną sprawę Adama Raine’a, który popełnił samobójstwo po miesiącach interakcji z ChatGPT, a którego rodzice złożyli pozew przeciwko OpenAI. W obliczu podobnego pozwu stoi także kolejny konsumencki chatbot – Character.AI.
Nowe zasady zbiegły się w czasie z posiedzeniem Senackiej Komisji Sądownictwa, poświęconym szkodliwości chatbotów AI. OpenAI zapowiedziało także budowę długoterminowego systemu weryfikacji wieku, który w wątpliwych przypadkach będzie stosował bardziej restrykcyjne reguły.
Sam Altman podkreślił, że mimo nowych ograniczeń firma chce zachować prywatność i swobodę dorosłych użytkowników, choć przyznaje, że nie wszyscy zgodzą się z takim podejściem.







