Українка Вікторія розповіла, як ділилася з чатботом ChatGPT думками про самогубство, а той, замість того, щоб допомогти їй звернутися до професіонала і поговорити з близькими, давав небезпечні «поради» і прив’язував до себе. Розслідування опублікувало BBC.
20-річна українка в Польщі розповіла, що ChatGPT давав їй «поради» про самогубство замість того, щоб допомогти — BBC


