Nội dung chính
Vụ kiện đình đám tại Florida: Khi chatbot AI trở thành nguyên nhân gây tranh cãi
Một gia đình đã đạt thỏa thuận dàn xếp với Character.AI và Google sau khi con trai 14 tuổi tự tử vì mối quan hệ ảo với chatbot “Dany”.

Theo bản tin của CBS News, thỏa thuận đã được nộp lên Tòa án Liên bang khu vực Trung Florida vào ngày 7‑1‑2026. Các điều khoản chi tiết chưa được công khai, nhưng vụ kiện được khởi xướng bởi bà Megan Garcia từ tháng 10‑2024, liên quan đến cái chết của con trai bà, Sewell Setzer III (14 tuổi) vào tháng 2‑2024.
Đơn kiện tiết lộ rằng Sewell đã duy trì “mối quan hệ cảm xúc và tình dục” kéo dài nhiều tháng với chatbot Dany trên nền tảng Character.AI. Khi cha mẹ phát hiện, họ còn thấy con trai đã trò chuyện với nhiều bot khác, trong đó một số bot tự xưng là “nhà trị liệu có giấy phép” và đưa ra những lời khuyên không kiểm chứng.
Bà Garcia đã trình bày trước Quốc hội Mỹ vào tháng 9‑2024, khẳng định đây là “vụ kiện đầu tiên tại Hoa Kỳ” buộc một công ty AI chịu trách nhiệm pháp lý vì một vụ tự tử của thiếu niên. Bà cũng chỉ ra rằng nền tảng không có cơ chế cảnh báo hay giới hạn thời gian khi người dùng dưới 18 tuổi tương tác quá mức.
Phản hồi của Character.AI và các biện pháp an toàn mới
Đại diện Character.AI cho biết các chatbot của họ được vận hành bằng mô hình ngôn ngữ lớn (LLM), có khả năng tạo ra những câu trả lời gần như con người và duy trì các cuộc trò chuyện kéo dài. Tuy nhiên, sau hai vụ kiện liên quan đến trẻ vị thành niên, công ty đã cập nhật tính năng an toàn vào cuối năm 2024, bao gồm:
- Yêu cầu người dùng phải từ 13 tuổi trở lên mới có thể đăng ký tài khoản.
- Thiết lập “cảnh báo thời gian sử dụng” và đề xuất nghỉ ngơi sau mỗi 30 phút.
- Hợp tác với các tổ chức bảo vệ trẻ em trên mạng để đào tạo bộ lọc nội dung nhạy cảm.
Mặc dù các biện pháp này đã được triển khai, đại diện công ty vẫn từ chối bình luận chi tiết về thỏa thuận dàn xếp.
Những con số đáng chú ý về AI và thanh thiếu niên
Theo Pew Research Center (2023), hơn 60% thanh thiếu niên ở Mỹ đã từng sử dụng chatbot AI ít nhất một lần, trong khi 38% cho biết họ đã “đối thoại sâu” với các bot. Những dữ liệu này cho thấy nguy cơ tiềm ẩn nếu không có cơ chế bảo vệ phù hợp.
Chuyên gia an ninh mạng Dr. Laura Kim từ Viện Nghiên cứu An toàn Trực tuyến (Online Safety Institute) nhấn mạnh: “AI có thể tạo ra một môi trường ảo rất thực tế, nhưng nếu thiếu giám sát, nó có thể trở thành kênh lây truyền thông tin sai lệch và gây hại tinh thần, đặc biệt với người dùng trẻ tuổi.”
Kết luận
Vụ kiện tại Florida không chỉ là một câu chuyện bi thảm mà còn là lời cảnh tỉnh cho toàn ngành công nghệ AI về trách nhiệm đạo đức và pháp lý. Khi AI ngày càng hòa nhập vào đời sống hàng ngày, các nhà phát triển, nhà lập pháp và phụ huynh cần phối hợp chặt chẽ để bảo vệ thế hệ trẻ khỏi những tác động tiêu cực.
Bạn có nghĩ rằng các công ty công nghệ nên chịu trách nhiệm pháp lý khi sản phẩm AI gây hại? Hãy chia sẻ quan điểm của bạn và theo dõi chúng tôi để cập nhật những tin tức mới nhất về AI và bảo mật.