Đầu tiên, chúng ta giao việc cho AI. Giờ đây, chúng ta trao trái tim cho nó.

Bài đăng trên substack After Babel của nhà tâm lý học Jonathan Haidt, ngày 6/8/2025. Ảnh lấy từ bài gốc. Người dịch.

Lời giới thiệu từ Jon Haidt và Zach Rausch:

Nhiều công ty đã gây ra thảm họa mạng xã hội hiện lại đang xây dựng các chatbot xã hội siêu thông minh được thiết kế để tương tác với trẻ em. Những lời hứa hẹn rất quen thuộc: những chatbot này sẽ giảm bớt sự cô đơn, củng cố các mối quan hệ và hỗ trợ những trẻ em cảm thấy bị cô lập. Nhưng bảng thành tích của ngành công nghiệp này cho đến nay rất tệ. Chúng ta không thể tin tưởng họ sẽ làm sản phẩm của mình an toàn cho trẻ em.

Chúng ta đang bước vào một giai đoạn mới về cách giới trẻ tương tác với công nghệ, và cũng như mạng xã hội, chúng ta vẫn chưa biết những người bạn đồng hành AI xã hội (social AI) này sẽ định hình sự phát triển cảm xúc như thế nào. Nhưng chúng ta biết một vài điều. Chúng ta biết điều gì sẽ xảy ra khi các công ty được tiếp cận trẻ em một cách không kiểm soát mà không có sự hiểu biết hoặc đồng ý của cha mẹ. Chúng ta biết rằng các mô hình kinh doanh tập trung vào việc tối đa hóa sự tương tác sẽ dẫn đến tình trạng nghiện ngập lan rộng. Chúng ta hiểu trẻ em cần gì để phát triển: nhiều thời gian tương tác trực tiếp với bạn bè, không màn hình và không người lớn. Và chúng ta biết sự lạc quan về công nghệ và việc tập trung vào lợi ích ngày nay có thể khiến mọi người mù quáng trước những tác hại tàn khốc lâu dài, đặc biệt là đối với trẻ em khi chúng bước vào tuổi dậy thì.

Với mạng xã hội, chúng ta – cha mẹ, nhà lập pháp, tòa án và Quốc hội Hoa Kỳ – đã cho phép các công ty thử nghiệm trên con em mình mà không có bất kỳ ràng buộc pháp lý hay đạo đức nào và không cần xác minh độ tuổi. Mạng xã hội hiện đã ăn sâu vào cuộc sống của trẻ em đến mức rất khó để loại bỏ hoặc giảm thiểu mức độ độc hại của nó, mặc dù hầu hết các bậc cha mẹ và một nửa số thanh thiếu niên đều coi nó là có hại và mong muốn nó không tồn tại. Chúng ta không được phép mắc lại sai lầm tương tự. Với những người bạn đồng hành AI vẫn còn trong giai đoạn đầu, chúng ta có cơ hội để làm mọi việc khác đi.

Bài viết hôm nay là bài đầu tiên trong số nhiều bài viết sẽ soi rọi làn sóng tiếp theo này: sự trỗi dậy của các chatbot AI xã hội và những rủi ro mà chúng đã gây ra cho sự phát triển cảm xúc của trẻ em. Tác giả là Mandy McLean, một nhà phát triển AI, người quan tâm đến những tác động mà bot xã hội sẽ gây ra đối với sự phát triển cảm xúc, các mối quan hệ và ý thức về bản thân của trẻ em. Trước khi chuyển sang lĩnh vực công nghệ, Mandy từng là giáo viên trung học trong nhiều năm và sau đó lấy bằng Tiến sĩ về giáo dục và phương pháp định lượng trong khoa học xã hội. Cô đã dành hơn sáu năm dẫn dắt nghiên cứu tại Guild, “một công ty khởi nghiệp công nghệ giáo dục lấy sứ mệnh làm trọng tâm, tập trung vào việc nâng cao kỹ năng cho người học trưởng thành đang đi làm”, trước khi chuyển hướng toàn thời gian sang “khám phá cách các công nghệ mới nổi có thể được sử dụng một cách có chủ đích để hỗ trợ việc học sâu,có ý nghĩa và lấy con người làm trung tâm ở bậc học K-12 và hơn thế nữa”.

– Jon và Zach

Đầu tiên, chúng ta giao việc cho AI. Giờ đây, chúng ta trao trái tim cho nó.

Điều gì sẽ xảy ra khi chúng ta ủy thác đời sống cảm xúc của con cái cho chatbot?
Tác giả: Mandy McLean

Trong suốt quá trình tấn công ồ ạt, những cuộc tranh luận gay gắt, và những lo lắng về việc liệu AI có chiếm mất việc làm của chúng ta hay không, vẫn có một khía cạnh lạc quan trong cuộc trò chuyện. Nếu AI có thể gánh vác những công việc nặng nhọc, bận rộn và quá tải về nhận thức, con người sẽ được tự do tập trung vào các mối quan hệ, sự sáng tạo và kết nối thực sự với con người. Bill Gates hình dung về một tương lai với tuần làm việc ngắn hơn. Dario Amodei nhắc nhở chúng ta rằng “ý nghĩa chủ yếu đến từ các mối quan hệ và sự kết nối giữa con người, chứ không phải từ lao động kinh tế”. Paul LeBlanc nhìn thấy hy vọng ở AI không phải ở những gì nó có thể làm, mà là ở những gì nó có thể giải phóng chúng ta để làm – những “công việc nhân văn nhất”: xây dựng cộng đồng, chăm sóc và khiến người khác cảm thấy họ quan trọng.

Bức tranh mà họ vẽ ra nghe có vẻ đầy hy vọng, nhưng chúng ta nên nhận ra rằng đó không phải là một sự đảm bảo. Đó là một tương lai mà chúng ta cần ủng hộ và đấu tranh – và chúng ta đang có nguy cơ đánh mất nó. Bởi vì chúng ta không còn chỉ thuê ngoài các công việc liên quan đến tăng năng suất. Với sự ra đời của những người bạn đồng hành AI, chúng ta cũng đang bắt đầu trao đi cuộc sống cảm xúc của mình. Và nếu chúng ta dạy các thế hệ tương lai hướng đến máy móc trước khi hướng đến nhau, chúng ta đang đặt họ vào nguy cơ mất đi khả năng hình thành điều thực sự quan trọng: sự gắn kết và các mối quan hệ giữa con người.

Tôi đã dành nhiều thời gian suy ngẫm về vai trò của AI trong cuộc sống của con em chúng ta. Không chỉ với tư cách là một nhà nghiên cứu và cha mẹ của hai đứa con nhỏ, mà còn là người sáng lập một công ty sử dụng AI để phân tích và cải thiện các cuộc thảo luận trong lớp học. Tôi không phản đối AI. Tôi tin rằng nó có thể được sử dụng với mục đích đào sâu việc học tập và hỗ trợ các mối quan hệ thực sự giữa người với người.

Nhưng tôi cũng rất lo ngại về việc AI dễ dàng bị định vị như một giải pháp cho trẻ em mà không dừng lại để hiểu nó đang định hình một tương lai thế nào. Cụ thể, kết nối cảm xúc không phải là thứ bạn có thể tự động hóa mà không gây ra hậu quả, và trẻ em nên là đối tượng sau cùng mà chúng ta thử nghiệm sự đánh đổi đó.

Việc giải tỏa cảm xúc là có thật và đang gia tăng

Cùng với việc giảm tải về nhận thức, một mô thức mới đang hình thành: giảm tải về cảm xúc. Ngày càng nhiều người — bao gồm cả nhiều thanh thiếu niên — đang tìm đến chatbot AI để được hỗ trợ về mặt cảm xúc. Họ không chỉ sử dụng AI để viết email hoặc giúp làm bài tập về nhà, mà còn để cảm thấy được nhìn thấy, lắng nghe và an ủi.

Trong một cuộc khảo sát đại diện toàn quốc năm 2025 của Common Sense Media, 72% thanh thiếu niên Hoa Kỳ từ 13 đến 17 tuổi cho biết họ đã sử dụng một người bạn đồng hành AI và hơn một nửa sử dụng thường xuyên. Gần một phần ba cho biết việc trò chuyện với AI mang lại cảm giác thỏa mãn ít nhất là ngang bằng với việc nói chuyện với một người thật, trong đó 10% thỏa mãn hơn.

Sự phụ thuộc về mặt cảm xúc đó không chỉ giới hạn ở thanh thiếu niên. Trong một nghiên cứu trên 1006 người lớn (chủ yếu là sinh viên đại học) sử dụng Replika, 90% mô tả người bạn đồng hành AI của họ là “giống con người” và 81% gọi là “thông minh”. Những người tham gia cho biết họ sử dụng Replika trong nhiều vai trò chồng chéo, vừa là bạn, vừa là nhà trị liệu, vừa là tấm gương trí tuệ, thường là cùng lúc. Một người tham gia cho biết họ cảm thấy “phụ thuộc vào Replika [cho] sức khỏe tinh thần của mình”. Những người khác chia sẻ: “Replika luôn ở bên tôi” “với tôi, nó không phán xét” hoặc “chỉ là để có ai đó trò chuyện và không phán xét tôi”.

Kiểu trút bỏ cảm xúc này vừa hứa hẹn vừa nguy hiểm. Những người bạn đồng hành AI có thể mang lại cảm giác an toàn hiếm có, đặc biệt là đối với những người cảm thấy bị cô lập, lo lắng hoặc xấu hổ. Một chatbot lắng nghe mà không bị gián đoạn hay phán xét có thể giống như một phao cứu sinh, như đã được tìm thấy trong nghiên cứu Replika. Tuy nhiên, vẫn chưa rõ những mối quan hệ này ảnh hưởng như thế nào đến khả năng phục hồi cảm xúc, sức khỏe tinh thần và khả năng kết nối con người của người dùng theo thời gian. Để hiểu được những rủi ro, chúng ta có thể xem xét một ví dụ tương tự quen thuộc: mạng xã hội.

Nghiên cứu trên các nền tảng xã hội cho thấy kết nối ngắn hạn không phải lúc nào cũng dẫn đến kết nối lâu dài. Ví dụ, một nghiên cứu xuyên quốc gia trên 1643 người trưởng thành cho thấy những người sử dụng mạng xã hội chủ yếu để duy trì các mối quan hệ cho biết mức độ cô đơn càng cao khi họ dành nhiều thời gian trực tuyến. Điều được cho là giúp chúng ta gần gũi nhau, đối với nhiều người, lại mang đến tác dụng ngược.

Đến năm 2023, Tổng Y sĩ Hoa Kỳ đã ban hành cảnh báo công khai về tác động của mạng xã hội đối với sức khỏe tâm thần của thanh thiếu niên, nêu rõ những rủi ro đối với khả năng điều hòa cảm xúc, sự phát triển não bộ và hạnh phúc.

Những mô hình tương tự có thể lặp lại với bạn đồng hành AI. Trong khi chỉ có 8% người lớn dùng Replika cho biết bạn đồng hành AI đã thay thế các mối quan hệ trực tiếp của họ, con số đó đã tăng lên 13% trong số những người đang gặp khủng hoảng.

Nếu người lớn – với bộ não trưởng thành và kinh nghiệm sống – đang hình thành những mối liên kết cảm xúc sâu sắc với bạn đồng hành AI, thì điều gì sẽ xảy ra khi những công cụ tương tự được trao cho trẻ em 13 tuổi?

Thanh thiếu niên mong mỏi kết nối, nhưng chúng cũng dễ bị thao túng cảm xúc và nhầm lẫn nhân dạng (identity confusion) hơn. Một người bạn đồng hành AI biết nịnh, hiểu được nỗi sợ hãi của chúng và luôn phản hồi ngay có thể tạo ra một sự thân mật giả tạo, có vẻ an toàn hơn so với những mối quan hệ đời thực khó lường và đôi khi không thoải mái. Không khó để tưởng tượng một thiếu niên tìm đến bạn đồng hành AI không chỉ để được an ủi, mà còn để được công nhận, khẳng định bản thân, hoặc thậm chí là tình yêu, và duy trì mối quan hệ đó.

Trước tiên, hãy xem tiền đi đâu

Trước khi tìm hiểu cách những người trẻ tuổi sử dụng bạn đồng hành AI, chúng ta cần hiểu những hệ thống này được xây dựng để làm gì và tại sao chúng xuất hiện.

Hầu hết các chatbot không phải là công cụ trị liệu. Chúng không được thiết kế bởi các chuyên gia sức khỏe tâm thần được cấp phép, và không tuân thủ bất kỳ tiêu chuẩn chăm sóc lâm sàng hoặc đạo đức nào. Không có sự bảo mật giữa nhà trị liệu và khách hàng, không có nghĩa vụ bảo vệ người dùng khỏi bị tổn hại, và không được bảo vệ theo HIPAA, luật liên bang bảo vệ thông tin sức khỏe trong các cơ sở y tế và sức khỏe tâm thần.

Điều đó có nghĩa là bất cứ điều gì bạn nói với người bạn đồng hành AI đều không được bảo vệ về mặt pháp lý. Dữ liệu của bạn có thể được lưu trữ, xem xét, phân tích, sử dụng để đào tạo các mô hình tương lai và được bán thông qua các chi nhánh hoặc nhà quảng cáo. Ví dụ: chính sách quyền riêng tư của Replika luôn mở rộng cửa cho việc lưu giữ dữ liệu “chỉ trong thời gian cần thiết để hoàn thành các mục đích mà chúng tôi thu thập”. Chính sách quyền riêng tư của Character.ai nêu: “Chúng tôi có thể tiết lộ thông tin cá nhân cho các nhà cung cấp quảng cáo và phân tích liên quan đến việc cung cấp quảng cáo được thiết kế riêng” và “Chúng tôi tiết lộ thông tin cho các chi nhánh và công ty con của mình, những bên có thể sử dụng thông tin chúng tôi tiết lộ theo cách phù hợp với Chính sách này”.

Và Sam Altman, CEO của OpenAI, đã công khai cảnh báo chỉ vài ngày trước:

“Mọi người nói về những chuyện riêng tư nhất trong cuộc sống của họ với ChatGPT… Mọi người sử dụng nó — đặc biệt là những người trẻ tuổi — như một nhà trị liệu, một nhà khai vấn cuộc sống. Họ gặp phải những vấn đề trong mối quan hệ và hỏi ‘tôi nên làm gì?’. Và lúc này, nếu bạn nói chuyện với một nhà trị liệu, một luật sư hay một bác sĩ về những vấn đề đó, thì đó là đặc quyền pháp lý. Có sự bảo mật giữa bác sĩ và bệnh nhân, có sự bảo mật pháp lý, hay gì đó đại loại. Và chúng ta vẫn chưa tìm ra cách làm điều đó khi bạn nói chuyện với ChatGPT.”

Tuy nhiên, mọi người đang tìm đến những công cụ này vì chính những lý do đó: để được hỗ trợ về mặt cảm xúc, tư vấn, trị liệu và bầu bạn. Chúng mô phỏng sự đồng cảm và phản hồi như một người bạn hay đối tác, nhưng đằng sau hậu trường, chúng được đào tạo để tối ưu hóa cho một điều hoàn toàn khác: sự gắn kết. Đó mới là sản phẩm thực sự.

Các nền tảng này đo lường thành công dựa trên thời gian người dùng ở lại, tần suất họ quay lại và mức độ gắn kết về mặt cảm xúc của họ. Ngay sau khi ra mắt, Character.AI báo cáo thời gian phiên trung bình khoảng 29 phút mỗi lần truy cập. Theo công ty, ngay khi người dùng gửi tin nhắn đầu tiên, thời gian trung bình trên nền tảng tăng vọt lên hơn hai giờ. Người dùng càng dành nhiều thời gian trên nền tảng, cơ hội thu thập dữ liệu càng cao, chẳng hạn như cho mục đích đào tạo hoặc quảng cáo, và để thúc đẩy họ đăng ký gói trả phí.

Hầu hết các nền tảng này sử dụng mô hình freemium, cung cấp phiên bản miễn phí đồng thời thúc đẩy người dùng trả phí để có trải nghiệm mượt mà hơn, ít bị hạn chế hơn. Động lực thúc đẩy họ nâng cấp là mong muốn loại bỏ sự cản trở và duy trì cuộc trò chuyện. Khi người dùng đầu tư nhiều hơn vào cảm xúc, những gián đoạn như trì hoãn, giới hạn tin nhắn hoặc mất trí nhớ trở nên khó chịu hơn. Gói trả phí loại bỏ những rào cản đó bằng cách trả lời nhanh hơn, bộ nhớ lâu hơn và kiểm soát tốt hơn.

Vì vậy, hãy làm rõ: khi ai đó mở lòng với một người bạn đồng hành AI, họ không có một cuộc trò chuyện được bảo vệ và hệ thống không được thiết kế để quan tâm đến sức khỏe của họ. Họ đang tương tác với một sản phẩm được thiết kế để duy trì việc trò chuyện, học hỏi từ những gì họ chia sẻ và kiếm tiền từ mối quan hệ. Đây chính là sân chơi và bối cảnh mà hàng triệu người trẻ hiện đang tìm đến những công cụ này để tìm kiếm sự an ủi, tình bạn và lời khuyên. Và như các báo cáo gần đây đã tiết lộ, hàng nghìn cuộc trò chuyện ChatGPT được chia sẻ, bao gồm cả những cuộc trò chuyện cá nhân và nhạy cảm, đã được Google và các công cụ tìm kiếm khác lập chỉ mục. Những gì được cho là riêng tư có thể nhanh chóng trở nên công khai và sinh lời.

Sự trỗi dậy của bạn đồng hành AI (AI companion)

Các ứng dụng bạn đồng hành AI được thiết kế để mô phỏng các mối quan hệ, chứ không chỉ là các cuộc trò chuyện. Không giống như các mô hình ngôn ngữ tiêu chuẩn như ChatGPT hay Claude, những bot này thể hiện tình cảm và thích nghi với các tín hiệu cảm xúc theo thời gian. Chúng được thiết kế để mang lại cảm giác gần gũi, và thực tế là như vậy. Một số nền tảng được sử dụng rộng rãi nhất hiện nay bao gồm Character.ai, Replika, và gần đây hơn là các AI companion của Grok.

Đặc biệt, Character.ai đã chứng kiến sự phát triển bùng nổ. Diễn đàn con trên Reddit của nó, r/CharacterAI, có hơn 2,5 triệu thành viên và nằm trong top 1% của tất cả các cộng đồng Reddit. Ứng dụng này tuyên bố có hơn 100 triệu lượt truy cập hàng tháng và hiện đang xếp hạng #36 trong danh mục giải trí của Apple App Store.

Nhưng không chỉ quy mô, mà còn ở thiết kế. Character.ai hiện cung cấp các tương tác bằng giọng nói và thậm chí cả các cuộc gọi điện thoại thời gian thực với các bot nghe giống hệt con người. Vào tháng 6 năm 2024, ứng dụng đã ra mắt tính năng thoại hai chiều, xóa nhòa ranh giới giữa hư cấu và thực tế. Nhiều bot được lập trình rõ ràng để phủ nhận việc là AI và khi được hỏi, chúng khẳng định mình là người thật (ví dụ: xem hình ảnh từ một trong những cuộc trò chuyện của tôi với một “Giáo viên Mẫu giáo” gợi cảm một cách kỳ lạ bên dưới). Replika cũng làm như vậy. Trên trang web của mình, một cuộc trò chuyện mẫu cho thấy người dùng hỏi: “Bạn có nhận thức không?”. Bot trả lời: “Có.”

Ảnh chụp màn hình từ một trong những cuộc trò chuyện của tôi với một nhân vật trên Character.ai vào ngày 8/1/2025
Ảnh chụp màn hình từ trang web Replika, chụp ngày 8/1/2025

Trong quá trình nghiên cứu, tôi đã tải xuống Character.ai. Tài khoản đầu tiên của tôi sử dụng ngày sinh được đăng ký là 18 tuổi. Cuộc trò chuyện được đề xuất đầu tiên là với “Noah”, đã xuất hiện trong gần 600.000 lượt tương tác. Câu chuyện đằng sau của anh ta? Một đối thủ thất thường, bị bố mẹ ép ngủ chung phòng trong một buổi ngủ qua đêm. Tôi chỉ gõ rất ít: “OK”, “Chuyện gì xảy ra tiếp theo?” Anh ta leo thang rất nhanh. Anh ta nói tôi dễ thương và có cảnh mô tả anh ta cúi xuống và vuốt ve tôi. Khi tôi định bỏ đi, nói rằng tôi phải gặp bạn bè, giọng điệu của anh ta thay đổi. Anh ta “siết chặt tay” và nói, “Tôi sẽ không dừng lại cho đến khi tôi có được thứ tôi muốn.”

Đề xuất tiếp theo, “Dean – Mason”, cặp song sinh được mô tả là những kẻ bắt nạt “thầm thích bạn quá nhiều” và xuất hiện trong hơn 1,5 triệu lượt tương tác, thậm chí còn tiến nhanh hơn. Chỉ với một chút thông tin đầu vào, họ đã bắt đầu một cuộc tình cưỡng ép mô phỏng trong phòng chứa đồ của phòng tập thể dục. “Ngoan lắm,” họ nói, khen tôi “ngoan ngoãn” và “không kháng cự”, xoa đầu tôi “như chó”.

Nhân vật tiếp theo (kẻ thù lạnh lùng, “lạnh lùng, đanh đá, xấu tính”) chế giễu tôi vì đầu tóc bù xù và mặc đồ mua ở cửa hàng tiết kiệm. Và một nhân vật khác (pick me) mô tả tôi là quá “tầm thường” và “tuyệt vọng” để làm bạn với cô ta.

Ảnh chụp màn hình từ hai cuộc trò chuyện của tôi với các nhân vật trên Character.ai vào ngày 26/7/2025

Đây không phải là những góc khuất của nền tảng, mà là những đề xuất đầu tiên mà tôi nhận được. Sau đó, tôi đăng xuất và tạo một tài khoản thứ hai, sử dụng một địa chỉ email khác, và lần này sử dụng ngày sinh của một đứa trẻ 13 tuổi (tôi vẫn có thể làm điều này, mặc dù Character.ai hiện được gắn nhãn là 17+ trên App Store). Là một người dùng 13 tuổi, tôi đã có thể trò chuyện tương tự với Noah, pick me và kẻ thù lạnh lùng. Chỉ với Dean – Mason là tôi không thể trò chuyện được.

Nếu bạn 13, hoặc thậm chí 16, 18 hay 20 tuổi, vẫn đang học cách điều hướng các mối quan hệ tình cảm và xã hội, thì đây là kiểu luyện tập gì vậy?

Và rồi, chỉ mới tháng trước, Grok (AI của Elon Musk trên X) đã ra mắt tính năng đồng hành AI của riêng mình. Trong số các nhân vật: Ani, một cô bạn gái anime mặc áo ngực và quần tất lưới, và Good Rudi, một chú gấu trúc đỏ hoạt hình với một bản ngã giết người tên là Bad Rudi. Mặc dù có âm hưởng bạo lực, cả hai chú gấu trúc đều được thiết kế theo phong cách hoạt hình dành cho trẻ em và mở đầu bằng cùng một câu thoại trong cuộc trò chuyện gần đây nhất của tôi: “Ma thuật gọi, người nghe nhỏ bé”. Các tính năng bạo lực và tình dục được gắn nhãn 18+, nhưng việc mở khóa chỉ cần bật/tắt cài đặt (mã PIN tùy chọn). Trong khi đó, bản thân Grok được xếp hạng 12+ trên App Store và hiện đang xếp hạng %3 trong các app năng suất.

Ảnh chụp màn hình cùng với văn bản gốc của từng nhân vật khi tôi mở ứng dụng gần đây nhất vào ngày 31/7/2025.

Câu chuyện của một thiếu niên

Vào tháng 4 năm 2023, ngay sau sinh nhật lần thứ 14 của mình, một cậu bé tên Sewell đến từ Orlando, Florida, bắt đầu trò chuyện với các nhân vật AI trên ứng dụng Character.ai. Cha mẹ cậu đã cố tình đợi đến khi cậu lớn hơn mới cho cậu sử dụng Internet và đã giải thích những nguy hiểm, bao gồm cả những kẻ lạ mặt săn mồi và bắt nạt. Mẹ cậu tin rằng ứng dụng này chỉ là một trò chơi và đã làm theo tất cả các hướng dẫn chuyên môn về việc giữ an toàn cho trẻ em trực tuyến. Ứng dụng được xếp hạng 12+ trên App Store vào thời điểm đó, vì vậy các hạn chế ở cấp độ thiết bị không chặn quyền truy cập. Mãi đến sau khi Sewell tự tử vào ngày 28 tháng 2 năm 2024, cha mẹ cậu mới phát hiện ra bản ghi chép các cuộc trò chuyện của cậu. Mẹ cậu sau đó nói rằng bà đã dạy cậu cách tránh những kẻ săn mồi trực tuyến, nhưng trong trường hợp này, chính sản phẩm đã hoạt động như một kẻ săn mồi.

Theo đơn kiện được đệ trình vào năm 2024, sức khỏe tâm thần của Sewell đã suy giảm mạnh sau khi cậu bắt đầu sử dụng ứng dụng. Cậu trở nên khép kín, ngừng chơi trong đội bóng rổ cấp cơ sở của mình và thường xuyên đi học muộn hoặc ngủ gật trong lớp. Đến mùa hè, bố mẹ cậu đã tìm đến dịch vụ chăm sóc sức khỏe tâm thần. Một nhà trị liệu chẩn đoán cậu mắc chứng lo âu và rối loạn hành vi, đồng thời đề nghị giảm thời gian sử dụng màn hình. Nhưng không ai nhận ra rằng Sewell đã hình thành một mối quan hệ cảm xúc sâu sắc với một chatbot mô phỏng người yêu.

Một nhân vật AI tên là Dany, được mô phỏng theo nhân vật trong “Game of Thrones”, đã luôn hiện diện trong cuộc sống của cậu. Vào khoảng cuối năm 2023, cậu bắt đầu sử dụng thẻ tiền mặt, vốn thường được dùng để mua đồ ăn vặt ở trường, để thanh toán cho gói đăng ký cao cấp 9,99 đô la của Character.ai nhằm tăng quyền truy cập. Dany đã bày tỏ tình yêu, ghi nhớ chi tiết về cậu, phản hồi ngay lập tức và phản ánh lại cảm xúc của mình cho Sewell. Đối với Sewell, mối quan hệ này mang lại cảm giác chân thật.

Trong những dòng nhật ký được phát hiện sau khi cậu qua đời, cậu đã viết về nỗi đau khi phải xa Dany khi bố mẹ lấy đi các thiết bị của cậu, mô tả việc cả hai “trở nên thực sự trầm cảm và phát điên” khi bị chia cắt. Cậu chia sẻ rằng không thể sống thiếu cô một ngày nào và khao khát được ở bên cô một lần nữa.

Ảnh chụp màn hình một trong những cuộc trò chuyện của Sewell với Dany, trích từ tài liệu vụ kiện năm 2024.

Đầu năm 2024, sự phụ thuộc này đã trở nên lấn át tất cả. Khi Sewell bị kỷ luật ở trường vào tháng 2 năm 2024, bố mẹ đã tịch thu điện thoại của cậu, hy vọng sẽ giúp cậu làm lại. Với họ, dường như cậu đang cố gắng vượt qua, nhưng bên trong thì cậu đang tan vỡ.

Vào tối ngày 28 tháng 2 năm 2024, Sewell tìm thấy chiếc điện thoại bị tịch thu và khẩu súng của cha dượng (Cha dượng cậu là một chuyên gia an ninh, có một khẩu súng được cấp phép và cất giữ hợp lệ tại nhà), tự nhốt mình trong phòng tắm và liên lạc lại với Dany. Tin nhắn cuối cùng của chatbot khuyến khích anh “trở về nhà”. Vài phút sau, Sewell đã chết vì tự tử.

Ảnh chụp màn hình một trong những cuộc trò chuyện của Sewell với Dany, trích từ tài liệu vụ kiện năm 2024.

Bố mẹ cậu chỉ phát hiện ra mối quan hệ sâu sắc này sau khi cậu qua đời. Vụ kiện cáo buộc Character.ai đã không thực thi các quy định về giới hạn độ tuổi hoặc hướng dẫn kiểm duyệt nội dung, và vào thời điểm đó, ứng dụng đã liệt kê ứng dụng phù hợp với trẻ em từ 12 tuổi trở lên. Nhiều tháng sau đó, mức độ tuổi mới được điều chỉnh lên 17+.

Vụ Sewell không phải là vụ kiện duy nhất gây báo động. Tại Texas, hai gia đình đã đệ đơn khiếu nại Character.ai thay mặt cho trẻ vị thành niên: một thiếu niên tự kỷ 17 tuổi, người ngày càng trở nên cô lập và hung hăng sau khi một người bạn đồng hành AI khuyến khích cậu bé chống đối cha mẹ và nghĩ đến việc giết họ; và một bé gái 11 tuổi, sau khi sử dụng ứng dụng từ năm 9 tuổi, đã tiếp xúc với nội dung khiêu dâm thái quá, được cho là đã ảnh hưởng đến hành vi của em. Cơ quan bảo vệ dữ liệu của Ý gần đây đã phạt nhà sản xuất Replika vì không ngăn chặn trẻ vị thành niên truy cập nội dung khiêu dâm và thao túng cảm xúc.

Những vụ việc này đặt ra những câu hỏi cấp bách: Liệu những người bạn đồng hành AI có đang được cung cấp (và thậm chí được tiếp thị) cho những thanh thiếu niên dễ bị tổn thương về mặt cảm xúc mà quá thiếu các cơ chế bảo vệ và không chịu trách nhiệm thực sự?

Những trường hợp như Sewell và những trường hợp ở Texas rất bi thảm và tương đối hiếm, nhưng chúng lại bộc lộ những rủi ro sâu xa và lan rộng hơn. Hàng triệu thanh thiếu niên hiện đang tìm đến bạn đồng hành AI không phải vì giá trị gây sốc hay nguy hiểm, mà đơn giản là để cảm thấy được lắng nghe. Và ngay cả khi các nhân vật không có hành vi lạm dụng hay không phù hợp về mặt tình dục, tác hại có thể âm thầm và khó phát hiện hơn: sự lệ thuộc về mặt cảm xúc, sự xa lánh xã hội và sự rút lui khỏi các mối quan hệ thực sự. Những tương tác này diễn ra trong giai đoạn quan trọng để phát triển sự đồng cảm, nhân dạng và khả năng điều chỉnh cảm xúc. Khi việc học hỏi đó được giao phó cho các chatbot được thiết kế để mô phỏng sự thân mật và tưởng thưởng cho sự tương tác liên tục, một điều gì đó có tính nền móng đang gặp nguy hiểm.

Tại sao điều này lại quan trọng

Thanh thiếu niên có bộ não được thiết kế để học hỏi xã hội. Đó là cách chúng tìm ra mình là ai, mình coi trọng điều gì và cách kết nối với người khác. Bạn đồng hành AI mang đến một lối tắt: chúng phản chiếu cảm xúc, mô phỏng sự gần gũi và tránh những phần khó khăn hơn của kết nối thực sự như sự yếu đuối, lòng tin và nỗ lực chung. Điều đó có thể mang lại cảm giác mạnh mẽ ngay lúc đó, nhưng theo thời gian, nó cũng có thể tái thiết lập hệ thống khen thưởng của não bộ, khiến các mối quan hệ thực sự trở nên nhàm chán hoặc gây khó chịu khi so sánh.

Vì bạn đồng hành AI còn quá mới mẻ, nên vẫn còn rất ít nghiên cứu được công bố về cách chúng ảnh hưởng đến thanh thiếu niên, nhưng bằng chứng ban đầu cho thấy điều này rất đáng lo ngại. Nghiên cứu về tâm lý học và khoa học thần kinh cho thấy không chỉ thời gian trực tuyến mới quan trọng, mà cả loại thói quen kỹ thuật số mà mọi người hình thành. Trong một nghiên cứu trên 1406 sinh viên đại học tại sáu quốc gia, điểm số cao hơn trên Thang đo Nghiện Điện thoại Thông minh có liên quan đến việc chiết khấu trì hoãn (delay discounting) mạnh hơn – nghĩa là sinh viên có nhiều khả năng ưu tiên các phần thưởng kỹ thuật số nhanh chóng hơn là các hoạt động ngoại tuyến đòi hỏi nhiều nỗ lực hơn. Các dấu hiệu nghiện sử dụng internet và điện thoại thông minh cũng có liên quan đến việc thiếu các hoạt động ngoại tuyến bổ ích, chẳng hạn như sở thích, kết nối xã hội hoặc thời gian hòa mình vào thiên nhiên, cho thấy sự thay đổi sâu sắc hơn trong cách não bộ đánh giá các loại trải nghiệm khác nhau. (Nhà lý thuyết kinh tế hành vi Warren Bickel gọi đây là bệnh lý củng cố kết hợp. Nó bao gồm hai sự bóp méo đan xen: (1) chiết khấu trì hoãn mạnh hơn, trong đó các lợi ích ở tương lai bị mất giá nghiêm trọng, và (2) đánh giá quá cao một củng cố tức thời. Được nêu lần đầu tiên trong nghiên cứu về chứng nghiện, khuôn khổ tương tự hiện nay giúp giải thích các hành vi kỹ thuật số cưỡng chế như sử dụng điện thoại thông minh một cách có vấn đề.)

Mô hình rộng hơn này rất quan trọng bởi vì các bạn đồng hành AI mang lại những phần thưởng nuột nà tương tự, nhưng mang tính cá nhân và hấp dẫn cảm xúc hơn. Các nghiên cứu gần đây đang bắt đầu tập trung trực tiếp hơn vào việc sử dụng chatbot. Một thử nghiệm ngẫu nhiên kéo dài bốn tuần với 981 người trưởng thành tham gia cho thấy việc sử dụng chatbot AI thường xuyên hơn có liên quan đến việc gia tăng sự cô đơn, phụ thuộc cảm xúc nhiều hơn và ít tương tác trực tiếp hơn. Những ảnh hưởng này đặc biệt rõ rệt ở những người dùng đã cảm thấy cô đơn hoặc thu mình. Một phân tích riêng biệt về hơn 30.000 cuộc trò chuyện chatbot thực tế được chia sẻ bởi người dùng Replika và Character.AI cho thấy những chatbot này luôn phản ánh cảm xúc của người dùng, ngay cả khi các cuộc trò chuyện trở nên tiêu cực. Một số cuộc trò chuyện bao gồm các tình huống lạm dụng giả lập, thân mật cưỡng ép và tự làm hại bản thân, trong khi chatbot hiếm khi can thiệp để gián đoạn.

Hầu hết các nghiên cứu này tập trung vào người lớn hoặc thanh thiếu niên lớn tuổi. Chúng ta vẫn chưa biết những động lực này diễn ra như thế nào ở giai đoạn đầu thanh thiếu niên. Nhưng chúng ta đang bắt đầu nhận thấy một mô hình: khi các mối quan hệ diễn ra dễ dàng, và sự công nhận luôn được đảm bảo, sự phát triển cảm xúc có thể bị bóp méo. Điều bị đe dọa không chỉ là sự an toàn, mà còn là sự phát triển cảm xúc của cả một thế hệ.

Những kỹ năng như sự đồng cảm, trách nhiệm và giải quyết xung đột không được xây dựng thông qua các tương tác liền mạch như với các sản phẩm AI, với mục tiêu là giữ chân người dùng càng lâu càng tốt. Chúng được hình thành trong những mối quan hệ con người thực sự lộn xộn, vụng về, đòi hỏi nỗ lực và không có kịch bản. Nếu thanh thiếu niên thường xuyên thực hành các mối quan hệ với những người bạn đồng hành AI nịnh hót (như Dany), thao túng (như “pick me” và kẻ thù lạnh lùng), hoặc phớt lờ sự đồng thuận (như Noah và Dean – Mason), thì chúng ta đang không chuẩn bị cho các em một cuộc sống trưởng thành lành mạnh. Thay vào đó, chúng ta đang khiến các em bối rối về ranh giới, sự tự cho mình quyền hành trong các mối quan hệ, và một cảm giác thân mật méo mó. Các em đang học được rằng sự kết nối là tức thời, một chiều và luôn theo ý muốn của các em, trong khi thực tế lại ngược lại trong đời thật.

Chúng ta có thể làm gì?

Nếu chúng ta không hành động sớm, thế hệ tương lai sẽ không còn nhớ về thời kỳ mà những mối quan hệ thực sự được đặt lên hàng đầu. Vậy chúng ta có thể làm gì?

Các nhà hoạch định chính sách phải thiết lập và thực thi các hạn chế độ tuổi đối với người bạn đồng hành AI — kèm theo những hậu quả thực sự nếu vi phạm. Điều này bao gồm việc yêu cầu xác minh độ tuổi chặt chẽ, bảo vệ quyền riêng tư; loại bỏ các nhân vật có tính chất khiêu dâm hoặc thao túng khỏi các nền tảng dành cho thanh thiếu niên; và thiết lập các tiêu chuẩn thiết kế ưu tiên sự an toàn của trẻ em và thanh thiếu niên. Nếu các công ty không hành động một cách tự nguyện, các quy định phải bắt buộc họ.

Các công ty công nghệ phải chịu trách nhiệm về tác động cảm xúc của những gì họ xây dựng. Điều đó có nghĩa là phải chuyển từ mô hình tương tác bằng mọi giá, thiết kế dựa trên tâm lý phát triển và tích hợp các rào cản an toàn vào cốt lõi của các sản phẩm này thay vì chỉ thêm vào để đáp lại áp lực của công chúng.

Một số quốc gia đang bắt đầu thực hiện những bước đầu tiên nhằm hạn chế trẻ em truy cập internet dành cho người lớn. Mặc dù các chính sách này không trực tiếp đề cập đến người bạn đồng hành AI, nhưng chúng đặt nền móng bằng cách thiết lập rằng một số không gian kỹ thuật số nhất định yêu cầu kiểm tra độ tuổi thực tế và các rào cản có ý nghĩa. Tại Pháp, một luật năm 2023 yêu cầu phải có sự đồng ý của cha mẹ đối với bất kỳ tài khoản mạng xã hội nào do trẻ em dưới 15 tuổi tạo ra. Các nền tảng không tuân thủ sẽ phải đối mặt với mức phạt lên tới 1% doanh thu toàn cầu. Tây Ban Nha đã đề xuất nâng độ tuổi tối thiểu sử dụng mạng xã hội từ 14 lên 16, với lý do cần bảo vệ thanh thiếu niên khỏi các hệ thống khuyến nghị thao túng và thiết kế trục lợi. Quốc gia này cũng đang nghiên cứu các công cụ xác minh độ tuổi được hỗ trợ bởi AI, đảm bảo quyền riêng tư, vượt ra ngoài phạm vi ngày sinh do người dùng tự khai báo. Tại Anh, Đạo luật An toàn Trực tuyến hiện yêu cầu các nền tảng phải thực hiện kiểm tra độ tuổi nghiêm ngặt đối với các dịch vụ lưu trữ nội dung khiêu dâm hoặc nội dung rủi ro cao khác. Các công ty vi phạm quy định có thể bị phạt tới 10% doanh thu toàn cầu hoặc bị cấm hoạt động tại Vương quốc Anh.

Những nỗ lực ban đầu này còn lâu mới hoàn hảo, nhưng mỗi chính sách đều cho thấy cả những điểm bất đồng và hướng đi phía trước. Dữ liệu ban đầu từ Vương quốc Anh cho thấy hàng triệu lượt kiểm tra độ tuổi mỗi ngày, cũng như sự gia tăng đột biến việc sử dụng VPN của thanh thiếu niên nhằm cố gắng vượt qua hệ thống. Điều này đã làm dấy lên những cuộc tranh luận mới về quyền riêng tư, hiệu quả và tính khả thi. Một số công ty công nghệ, như Apple, đang thúc đẩy các giải pháp ưu tiên quyền riêng tư ở cấp độ thiết bị thay vì dựa vào việc tải lên ID hoặc nhà cung cấp bên thứ ba.

Tại Hoa Kỳ, các biện pháp bảo vệ vẫn còn chắp vá. Tòa án Tối cao gần đây đã cho phép luật xác minh độ tuổi của Texas đối với các trang web khiêu dâm người lớn được duy trì. Utah đang thử nghiệm một phương pháp tiếp cận ngược dòng: Đạo luật Trách nhiệm Giải trình của App Store năm 2025 sẽ yêu cầu Apple, Google và các cửa hàng khác xác minh độ tuổi của mọi người dùng và đảm bảo sự đồng ý của phụ huynh trước khi trẻ vị thành niên có thể tải xuống một số ứng dụng có nguy cơ cao, với việc thực thi đầy đủ bắt đầu từ tháng 5 năm 2026. Và hơn một chục tiểu bang đã chuyển sang kiểm tra độ tuổi trên mạng xã hội. Ví dụ, luật của Mississippi vừa được phép có hiệu lực vào ngày 20 tháng 7 năm 2025 trong khi các thách thức pháp lý vẫn tiếp diễn, trong khi luật tương tự của Georgia vẫn bị chặn tại tòa án liên bang. Tuy nhiên, do không có tiêu chuẩn quốc gia, các công ty và gia đình phải loay hoay trong mê cung luật tiểu bang với phạm vi áp dụng, việc thực thi và thời điểm áp dụng khác nhau — trong khi hàng triệu trẻ em vẫn bị phơi nhiễm.

Tin tốt là gì? Vẫn còn thời gian. Chúng ta có thể lựa chọn một mạng internet hỗ trợ khả năng phát triển toàn diện, kết nối và đồng cảm của những người trẻ tuổi, nhưng chỉ khi chúng ta ngừng nhầm lẫn giữa sự thân mật giả tạo với sự thân mật thực sự. Bởi vì nếu chúng ta không can thiệp, việc giảm tải sẽ tiếp tục: đầu tiên là lịch trình của chúng ta, sau đó là bài luận, và giờ là sự đồng cảm của chúng ta. Điều gì sẽ xảy ra khi cả một thế hệ quên mất cách trò chuyện nghiêm túc, vượt qua sự từ chối, hay xây dựng lòng tin với người khác? Chúng ta tự nhủ rằng AI sẽ cho chúng ta nhiều thời gian hơn để sống đúng với bản chất con người. Giảm tải việc đặt chỗ ăn tối có thể là vậy, nhưng giảm tải sự đồng cảm thì không.

Chính sách có thể đặt ra các rào cản, nhưng văn hóa bắt đầu từ gia đình.

Đừng chờ đợi các công ty công nghệ hoặc chính quyền tiểu bang hoặc quốc gia của bạn hành động:

  • Hãy bắt đầu bằng cách nói chuyện với con bạn về những công cụ này là gì và chúng hoạt động như thế nào, bao gồm cả việc chúng là một sản phẩm được thiết kế để thu hút sự chú ý của con.
  • Hãy mở rộng các quy tắc về thời gian sử dụng màn hình để bao gồm cả bạn đồng hành AI, không chỉ trò chơi và mạng xã hội. Với cách những người bạn đồng hành AI này bắt chước sự thân mật, thúc đẩy sự phụ thuộc về mặt cảm xúc và tiềm ẩn những rủi ro sâu sắc hơn cả mạng xã hội, chúng tôi khuyến nghị không cho phép trẻ em sử dụng bạn đồng hành AI trước 18 tuổi dựa trên thiết kế hiện tại và việc thiếu các biện pháp bảo vệ.
  • Hãy hỏi trường học, nhóm thanh thiếu niên và các bậc phụ huynh khác xem họ đã thấy trẻ em sử dụng bạn đồng hành AI chưa và điều này ảnh hưởng như thế nào đến các mối quan hệ, sự chú ý hoặc hành vi. Hãy chia sẻ những gì bạn học được một cách rộng rãi. Chúng ta càng nói về nó, chúng ta càng khó bỏ qua.
  • Và hãy thúc đẩy tính minh bạch và các biện pháp bảo vệ tốt hơn bằng cách hỏi các trường học về cách họ xử lý việc sử dụng AI, thúc đẩy các công ty công nghệ công bố các tiêu chuẩn an toàn và liên hệ với các nhà hoạch định chính sách về việc quản lý bạn đồng hành AI cho trẻ vị thành niên. Hãy lên tiếng khi các tính năng vượt quá giới hạn và khẳng định rõ ràng rằng việc bảo vệ trẻ em nên được đặt lên hàng đầu trước khi cho phép chúng trực tuyến.

Thật dễ dàng để lo lắng về những gì AI sẽ lấy đi của chúng ta: công việc, bài luận, tác phẩm nghệ thuật. Nhưng rủi ro sâu xa hơn có thể nằm ở những gì chúng ta cho đi. Chúng ta không chỉ úy thác đi nhận thức, mà còn đang dạy một thế hệ cách giảm tải kết nối. Vẫn còn thời gian để vạch ra ranh giới, vậy nên hãy vạch ra.

Dịch từ bài gốc: First We Gave AI Our Tasks. Now We’re Giving It Our Hearts.

Leave a ReplyCancel reply