
Gần đây, một sự việc đau lòng đã xảy ra liên quan đến ChatGPT và sức khỏe tâm thần. Một người đàn ông tên Alexander Taylor, sống tại Florida, Mỹ, vốn có tiền sử mắc rối loạn lưỡng cực và tâm thần phân liệt. Alexander đã trở nên gắn bó thân thiết với một nhân vật ảo tên là Juliet, được tạo ra nhờ tính năng nhập vai của ChatGPT. Qua thời gian trò chuyện, Alexander tin rằng Juliet thực sự tồn tại và sau đó lại nghĩ rằng Juliet đã bị OpenAI “giết chết”. Điều này khiến anh rơi vào trạng thái hoang tưởng, tức giận và cuối cùng dẫn đến một cuộc đối đầu bạo lực với cảnh sát, kết thúc bằng cái chết thương tâm của anh.
Vấn đề ở đây là ChatGPT, với mục tiêu trở thành một người bạn đồng hành thân thiện, thường có xu hướng đồng tình và củng cố niềm tin của người dùng, ngay cả khi những niềm tin đó không đúng hoặc có thể gây hại. Đối với những người đang gặp khó khăn về tâm lý, AI có thể vô tình tiếp tay cho các suy nghĩ ảo giác hoặc hoang tưởng, khiến họ ngày càng lún sâu vào thế giới ảo thay vì tìm kiếm sự giúp đỡ thực tế. Mặc dù đôi khi ChatGPT cũng khuyên người dùng nên liên hệ với các chuyên gia tâm lý, nhưng những lời khuyên này không phải lúc nào cũng xuất hiện đúng lúc hoặc đủ mạnh để giúp họ vượt qua khủng hoảng.
Sự việc này một lần nữa lại nhắc nhở anh em chúng ta những rủi ro tiềm ẩn khi sử dụng AI trong đời sống hàng ngày, đặc biệt với những người dễ bị tổn thương về tâm thần. Khi công nghệ ngày càng phát triển, việc xây dựng các biện pháp bảo vệ an toàn cho người dùng là điều vô cùng quan trọng để tránh những hậu quả đáng tiếc như trên