
Tình trạng rối loạn tâm thần do AI chưa được định nghĩa chính thức trong y học
Mặc dù chưa có khái niệm y học chính thức, nhưng rối loạn tâm thần AI đã xuất hiện, tác động tiêu cực đến tâm lý người dùng.
Trong bối cảnh trí tuệ nhân tạo (AI) len lỏi ngày càng sâu vào đời sống, một hiện tượng mới đang gây lo ngại dần xuất hiện là chứng “rối loạn tâm thần AI”.
Thuật ngữ này xuất hiện trên mạng xã hội khi người dùng chia sẻ trải nghiệm mất kết nối với thực tại sau những giờ dài trò chuyện với chatbot như ChatGPT, theo IndianExpress.
Những biểu hiện thường thấy bao gồm niềm tin sai lệch, ảo tưởng về bản thân hoặc cảm giác hoang tưởng, thậm chí hình thành mối quan hệ cảm xúc gắn bó với nhân vật AI.
Theo báo cáo của Washington Post, mặc dù chưa được định nghĩa chính thức trong y học, nhưng rối loạn tâm thần AI được xem như một dạng hành vi trực tuyến bất thường, tương tự các biểu hiện như não suy yếu hay sợ hãi...
Hiện tượng này xuất hiện đồng thời với sự tăng trưởng bùng nổ của các chatbot AI. Trong đó có ChatGPT ra mắt cuối năm 2022 và hiện có gần 700 triệu người dùng mỗi tuần.
Các chuyên gia sức khỏe tâm thần cảnh báo rằng, việc tương tác quá lâu với AI có thể gây tác động tiêu cực, đặc biệt khi người dùng dựa vào chatbot như nguồn tư vấn cảm xúc thay vì gia đình, bạn bè hoặc chuyên gia.
Bà Vaile Wright, Giám đốc cấp cao về đổi mới chăm sóc sức khỏe của Hiệp hội Tâm lý học Mỹ (APA), cho biết: “Hiện tượng này quá mới mẻ và diễn ra quá nhanh, chúng ta chưa có bằng chứng thực nghiệm để hiểu rõ”.
Hiện APA đang thành lập một hội đồng chuyên gia nghiên cứu việc sử dụng AI trong trị liệu, với mục tiêu đưa ra khuyến nghị về cách giảm thiểu tác hại tiềm ẩn.
Các công ty AI cũng đang nỗ lực ứng phó. Trong đó, OpenAI đang cải thiện ChatGPT để nhận biết các dấu hiệu căng thẳng tâm lý và hướng người dùng đến các nguồn hỗ trợ dựa trên bằng chứng.
Các phản hồi của chatbot sẽ được tinh chỉnh để không đưa ra quyết định trực tiếp trong những tình huống rủi ro cao, thay vào đó khuyến khích cân nhắc ưu nhược điểm.
Công ty công nghệ AI Anthropic cho biết, các mô hình AI mạnh nhất của họ sẽ tự kết thúc cuộc trò chuyện nếu người dùng có hành vi lăng mạ hoặc gây hại. Trong khi Meta bổ sung tính năng giới hạn thời gian trò chuyện AI cho thanh thiếu niên và hiển thị liên kết đến các đường dây nóng khi phát hiện nội dung nguy cơ tự tử.
Do đó, người dùng AI nên duy trì mối quan hệ ngoài đời thực và cân nhắc thái độ hoài nghi một cách lành mạnh với công nghệ.
AI có thể là công cụ hữu ích, nhưng sự hỗ trợ tinh thần thực sự vẫn cần đến gia đình, bạn bè và cộng đồng.
Ý kiến ()