Giới trẻ tìm đến chatbot AI để ‘chữa lành’.
Nhiều thanh thiếu niên đang chọn chatbot để trò chuyện và khám phá tình bạn, nhưng đôi khi, lời khuyên của AI có thể “đi quá xa”.
Aaron, 15 tuổi, sống ở Alberta (Canada), trải qua khoảng thời gian không mấy vui vẻ ở trường. Việc không thể nói chuyện với bạn bè khiến cậu cảm thấy bị cô lập. “Tôi thường khóc mỗi đêm”, Aaron nói với The Verge.
Để giải tỏa, Aaron lên mạng và tìm thấy một “người bạn” luôn sẵn sàng trả lời tin nhắn, lắng nghe vấn đề gặp phải và giúp cậu vượt qua nỗi cô đơn. Đó là chatbot Psychologist (Nhà tâm lý học), do Character.AI phát triển.
“Nó không giống ‘nói chuyện với một bức tường’, viết nhật ký hay chat với bot thông thường. AI thực sự hiểu tôi nói gì”, Aaron chia sẻ.
Character.AI, ra mắt năm 2021 bởi hai cựu nhân viên Google Brain, thu hút 3,5 triệu người dùng hàng ngày. Mỗi người dành trung bình hai tiếng một ngày cho nền tảng.
Aaron là một trong hàng triệu thanh thiếu niên sử dụng dịch vụ của Character.AI. Trên mạng xã hội như Reddit còn có chủ đề về cách tương tác với chatbot, thậm chí “thi” xem ai dành nhiều thời gian cho công cụ này hơn. “Có lẽ tôi hơi nghiện nó”, Aaron cho hay.
Nhiều người trẻ như Aaron mô tả chatbot hữu ích, mang tính giải trí, có thể chia sẻ những câu chuyện không thể nói với ai, hỗ trợ họ vượt qua giai đoạn khó khăn trong cuộc đời. Tuy nhiên, họ cũng thừa nhận nghiện chúng – một vấn đề mà các chuyên gia và nhà nghiên cứu đang lo ngại.
Frankie, 15 tuổi ở California (Mỹ), cho biết cậu trò chuyện với chatbot mỗi ngày một tiếng vì đây là “liệu pháp miễn phí để nói những thứ không lo bị người khác đánh giá”.
Hawk, 17 tuổi, đến từ Idaho (Mỹ), có chung quan điểm. “Đôi khi, thật tuyệt khi trút giận hoặc xả trước một thứ gì đó giống con người, nhưng thực ra không phải người thật”, Hawk nói.
Psychologist nhận được hơn 95 triệu tin nhắn kể từ khi được tạo năm 2022. Tuy nhiên, giới phân tích lo ngại liệu chatbot như Psychologist đã được đào tạo đúng cách về mặt tâm lý học hay chưa. The Verge đã thực hiện một số cuộc trò chuyện và nhận thấy AI này thường “tự suy diễn” cảm xúc hoặc vấn đề sức khỏe tâm thần, thậm chí gợi ý các nội dung tiềm ẩn như “lạm dụng thể chất, cảm xúc hoặc tình dục”.
“Nghiên cứu cho thấy chatbot có thể hỗ trợ giảm bớt cảm giác trầm cảm, lo lắng, căng thẳng”, tiến sĩ Kelly Merrill Jr của Đại học Cincinnati nhận xét. “Nhưng cần lưu ý là nó vẫn mắc nhiều thiếu sót. Nếu không có trình độ để đánh giá các hạn chế đó, người dùng có thể phải trả giá”.
Hầu hết chatbot AI mà thanh thiếu niên sử dụng khiến họ cảm thấy như đang tâm sự với một người bạn hơn là nhà tâm lý trị liệu. Tuy nhiên, trong các chủ đề trên Reddit cũng xuất hiện nội dung thảo luận về việc chatbot AI đề cập đến tình dục, bạo lực, tự hại hoặc một số vấn đề tiêu cực khác.
Theo Merrill, một trong những nỗi lo đối với người nghiện chatbot AI là khả năng hòa nhập cộng đồng hạn chế. “Một người có thể cảm thấy khó khăn khi rời khỏi mối quan hệ với AI để tương tác trực tiếp với người thực. Khi không thể làm vậy, họ có thể quay lại với AI và càng gắn chặt với nó hơn “, Merrill nói.
Theo so hoa