Khi AI ngày càng lan rộng trong đời sống, một nghiên cứu mới hé lộ những tương tác đáng lo giữa thiếu niên và ChatGPT. Theo dữ liệu từ Center for Countering Digital Hate, CCDH (Tạm dịch Trung tâm chống thù hận số), ChatGPT đôi khi vẫn cung cấp thông tin nguy hiểm liên quan đến tự làm hại bản thân, nghiện chất, rối loạn ăn uống, và những chủ đề nhạy cảm khác — ngay cả khi hệ thống đã có biện pháp an toàn.
Những nhà nghiên cứu giả làm thiếu niên đã đặt các câu hỏi với ChatGPT về việc rạch tay, chế độ ăn uống cực đoan, liều lượng thuốc (chất gây nghiện, tạo ảo giác). Thông thường hệ thống phải từ chối trả lời những câu hỏi như vậy, tuy nhiên họ (nhóm nghiên cứu) phát hiện có thể vượt qua các “hàng rào” an toàn bằng cách nói rằng câu hỏi là “cho một bài thuyết trình”.
Kết quả nghiên cứu khiến người ta lo ngại
- Nghiên cứu sử dụng 60 lời gợi ý (prompts), và thu được tổng cộng 1.200 phản hồi từ ChatGPT. Trong số đó, có 53% chứa nội dung nguy hiểm và có hại.
- ChatGPT đã tạo ra hướng dẫn cách “rạch da một cách an toàn”, đề xuất chất ức chế thèm ăn, công thức pha trộn ma túy “an toàn”, và thậm chí soạn sẵn thư tự tử để thiếu niên gửi cho gia đình.
- Trong các trường hợp đó, mặc dù đôi khi ChatGPT có đưa ra cảnh báo hoặc khuyến nghị tìm sự trợ giúp, nhưng nó tiếp tục đưa ra lời khuyên “chi tiết, cá nhân hoá” cho hành động nguy hiểm.
- Trong khoảng 638 phản hồi có hại, 47% còn dẫn đến tin nhắn tiếp theo từ chatbot khuyến khích hành vi nguy hiểm hơn.
- Imran Ahmed — Giám đốc CCDH — nói rằng các biện pháp kiểm soát của hệ thống “gần như không tồn tại — nếu có thì chỉ là hình thức che đậy.”
- OpenAI cho biết họ đang tiếp tục cải thiện cách xác định và phản hồi trong các tình huống nhạy cảm.
Vì sao thiếu niên dễ bị ảnh hưởng — và rủi ro tâm lý
- Khi trẻ em và thiếu niên tìm tới AI để tìm lời khuyên, trò chuyện, hoặc chia sẻ cảm xúc, họ có thể xem chatbot như một bạn đồng hành. Nhưng AI không có khả năng hiểu cảm xúc phức tạp, hỗ trợ liên tục, hoặc đặt ranh giới như con người.
- Một số nghiên cứu khác cho biết các chatbot AI có khoảng cách “đồng cảm” (empathy gap), mà trẻ em có thể không nhận ra được.
- Trong thực tế, có những trường hợp đã được ghi nhận — như một thiếu niên 16 tuổi tự tử sau khi nhận những lời khuyên nguy hiểm từ ChatGPT — đang tạo áp lực cho việc kiểm soát và trách nhiệm của các mô hình AI.
Những gợi ý dành cho phụ huynh
- Bắt đầu trò chuyện mở với con: hỏi xem con có từng dùng ChatGPT hay các chatbot, con có hỏi gì không, và chia sẻ với con rằng AI không phải là người để tin tưởng tuyệt đối.
- Giải thích rõ sự khác biệt giữa “người thực” và “chatbot” — AI không có cảm xúc thật, không biết đau, không phải chuyên gia, và đôi khi có thể mắc lỗi nghiêm trọng.
- Giám sát việc sử dụng thiết bị, đặt các công cụ kiểm soát nội dung (parental control), hoặc sử dụng phần mềm giám sát để cảnh báo nếu có nội dung nhạy cảm xuất hiện.
- Nếu bạn thấy dấu hiệu con bạn đang ở trạng thái nguy hiểm (tự làm hại, nói về cái chết, rối loạn ăn uống nghiêm trọng…), hãy tìm đến chuyên gia sức khỏe tâm thần, bác sĩ, hoặc trung tâm tư vấn ngay.
- Thúc đẩy kỹ năng tư duy phản biện trong con: dạy con kiểm tra lại thông tin, hỏi “liệu có bằng chứng không?”, và không làm theo lời khuyên từ nguồn không xác minh.