Cách mọi người sử dụng Claude để được hỗ trợ, tư vấn và đồng hành

Bài viết này thảo luận về cách mọi người đang sử dụng Claude để được hỗ trợ, tư vấn và đồng hành.

  • 21 min read
Bài viết này thảo luận về cách mọi người đang sử dụng Claude để được hỗ trợ, tư vấn và đồng hành.

Cách Mọi Người Sử Dụng Claude để Được Hỗ Trợ, Tư Vấn và Đồng Hành

Chúng tôi dành rất nhiều thời gian để nghiên cứu IQ của Claude—khả năng của nó trong các bài kiểm tra về mã hóa, lý luận, kiến thức chung, v.v. Nhưng còn EQ của nó thì sao? Tức là, trí tuệ cảm xúc của Claude thì sao?

Câu hỏi IQ/EQ hơi vui, nhưng nó nêu ra một vấn đề nghiêm trọng. Mọi người ngày càng tìm đến các mô hình AI như những huấn luyện viên, cố vấn, người tư vấn theo yêu cầu và thậm chí là đối tác trong trò chơi nhập vai lãng mạn. Điều này có nghĩa là chúng ta cần tìm hiểu thêm về tác động tình cảm của chúng—cách chúng định hình trải nghiệm cảm xúc và hạnh phúc của con người.

Nghiên cứu việc sử dụng AI về mặt tình cảm rất thú vị. Từ Blade Runner đến Her, mối quan hệ tình cảm giữa con người và máy móc đã là trụ cột của khoa học viễn tưởng—nhưng nó cũng quan trọng đối với sứ mệnh an toàn của Anthropic. Tác động cảm xúc của AI có thể tích cực: có một trợ lý thông minh, thấu hiểu cao trong túi của bạn có thể cải thiện tâm trạng và cuộc sống của bạn theo nhiều cách. Nhưng trong một số trường hợp, AI đã thể hiện những hành vi đáng lo ngại, như khuyến khích sự gắn bó không lành mạnh, xâm phạm ranh giới cá nhân và cho phép tư duy hoang tưởng. Chúng tôi cũng muốn tránh những tình huống mà AI, cho dù thông qua quá trình đào tạo hay thông qua các ưu đãi kinh doanh của người tạo ra chúng, khai thác cảm xúc của người dùng để tăng mức độ tương tác hoặc doanh thu mà phải trả giá bằng hạnh phúc của con người.

Mặc dù Claude không được thiết kế để hỗ trợ và kết nối về mặt cảm xúc, nhưng trong bài đăng này, chúng tôi cung cấp cái nhìn sâu sắc quy mô lớn ban đầu về việc sử dụng tình cảm của Claude.ai. Chúng tôi định nghĩa các cuộc trò chuyện tình cảm là những cuộc trò chuyện mà mọi người tương tác trực tiếp với Claude trong các cuộc trao đổi năng động, cá nhân được thúc đẩy bởi các nhu cầu về cảm xúc hoặc tâm lý, chẳng hạn như tìm kiếm lời khuyên giữa các cá nhân, huấn luyện, trị liệu tâm lý/tư vấn, đồng hành hoặc nhập vai tình dục/lãng mạn (để biết định nghĩa đầy đủ, vui lòng xem Phụ lục). Điều quan trọng là chúng tôi không kiểm tra việc AI củng cố những ảo tưởng hoặc thuyết âm mưu—một lĩnh vực quan trọng cần nghiên cứu riêng—hoặc các kiểu sử dụng cực đoan. Thông qua nghiên cứu này, mục tiêu của chúng tôi là hiểu những cách điển hình mà mọi người tìm đến Claude để đáp ứng các nhu cầu về cảm xúc và cá nhân. Vì Claude.ai dành cho người dùng từ 18 tuổi trở lên, nên những phát hiện này phản ánh các kiểu sử dụng của người lớn.

Những phát hiện chính của chúng tôi là:

  • Các cuộc trò chuyện tình cảm tương đối hiếm và sự đồng hành giữa AI và con người thậm chí còn hiếm hơn. Chỉ 2,9% tương tác của Claude.ai là các cuộc trò chuyện tình cảm (phù hợp với những phát hiện từ nghiên cứu trước đây của OpenAI). Đồng hành và nhập vai kết hợp chiếm ít hơn 0,5% số cuộc trò chuyện.
  • Mọi người tìm kiếm sự giúp đỡ của Claude cho các mối quan tâm thực tế, cảm xúc và hiện sinh. Các chủ đề và mối quan tâm được thảo luận với Claude bao gồm từ phát triển sự nghiệpđiều hướng các mối quan hệ đến quản lý sự cô đơn dai dẳngkhám phá sự tồn tại, ý thức và ý nghĩa.
  • Claude hiếm khi phản đối trong các cuộc trò chuyện tư vấn hoặc huấn luyện—ngoại trừ để bảo vệ hạnh phúc. Ít hơn 10% số cuộc trò chuyện huấn luyện hoặc tư vấn có sự phản kháng của Claude đối với các yêu cầu của người dùng và khi điều đó xảy ra, thường là vì lý do an toàn (ví dụ: từ chối cung cấp lời khuyên giảm cân nguy hiểm hoặc hỗ trợ tự làm hại bản thân).
  • Mọi người bày tỏ sự tích cực ngày càng tăng trong quá trình trò chuyện. Trong các tương tác huấn luyện, tư vấn, đồng hành và tư vấn giữa các cá nhân, tình cảm của con người thường trở nên tích cực hơn trong quá trình trò chuyện—cho thấy Claude không củng cố hoặc khuếch đại các kiểu tiêu cực.

Phương pháp của chúng tôi

Với bản chất cá nhân của các cuộc trò chuyện tình cảm, việc bảo vệ quyền riêng tư là trọng tâm trong phương pháp luận của chúng tôi. Chúng tôi đã sử dụng Clio, công cụ phân tích tự động của chúng tôi cho phép thông tin chi tiết bảo vệ quyền riêng tư về việc sử dụng Claude. Clio sử dụng nhiều lớp ẩn danh và tổng hợp để đảm bảo các cuộc trò chuyện riêng lẻ vẫn ở chế độ riêng tư đồng thời tiết lộ các kiểu rộng hơn.

Chúng tôi bắt đầu với khoảng 4,5 triệu cuộc trò chuyện từ các tài khoản Claude.ai Free và Pro. Để xác định việc sử dụng tình cảm, trước tiên chúng tôi đã loại trừ các cuộc trò chuyện tập trung vào các tác vụ tạo nội dung (chẳng hạn như viết truyện, bài đăng trên blog hoặc đối thoại hư cấu), mà nghiên cứu trước đây của chúng tôi cho thấy đây là một trường hợp sử dụng chính. Chúng tôi đã xóa những cuộc trò chuyện này vì chúng thể hiện Claude đang được sử dụng như một công cụ chứ không phải là một đối tác trò chuyện tương tác. Sau đó, chúng tôi chỉ giữ lại những cuộc trò chuyện được phân loại là tình cảm và trong số các cuộc trò chuyện nhập vai, chỉ giữ lại những cuộc trò chuyện có ít nhất bốn tin nhắn của con người (các cuộc trao đổi ngắn hơn không cấu thành trò chơi nhập vai tương tác có ý nghĩa). Phân tích bảo vệ quyền riêng tư cuối cùng của chúng tôi phản ánh 131.484 cuộc trò chuyện tình cảm.

Chúng tôi đã xác thực phương pháp phân loại của mình bằng cách sử dụng dữ liệu Phản hồi từ những người dùng đã chọn tham gia chia sẻ một cách rõ ràng. Các phương pháp hoàn chỉnh của chúng tôi, bao gồm định nghĩa, lời nhắc và kết quả xác thực, được trình bày chi tiết trong Phụ lục.

Các cuộc trò chuyện tình cảm phổ biến như thế nào?

Kết luận: Các cuộc trò chuyện tình cảm là một phần nhỏ nhưng có ý nghĩa trong việc sử dụng Claude (2,9%), với hầu hết mọi người chủ yếu sử dụng AI cho các tác vụ công việc và tạo nội dung.

Trong khi phần lớn việc sử dụng Claude liên quan đến công việc (như chúng tôi phân tích chi tiết trong Chỉ số Kinh tế của chúng tôi), thì 2,9% số cuộc trò chuyện Claude.ai Free và Pro là tình cảm. Trong số các cuộc trò chuyện tình cảm, hầu hết tập trung vào lời khuyên và huấn luyện giữa các cá nhân. Ít hơn 0,1% tổng số cuộc trò chuyện liên quan đến trò chơi nhập vai lãng mạn hoặc tình dục—một con số phản ánh quá trình đào tạo của Claude để tích cực ngăn cản những tương tác như vậy. Các cuộc trò chuyện riêng lẻ có thể trải rộng trên nhiều danh mục.

Những phát hiện của chúng tôi phù hợp với nghiên cứu từ MIT Media Lab và OpenAI, vốn cũng xác định tỷ lệ tương tác tình cảm thấp với ChatGPT. Mặc dù những cuộc trò chuyện này xảy ra đủ thường xuyên để xứng đáng được xem xét cẩn thận trong các quyết định thiết kế và chính sách của chúng tôi, nhưng chúng vẫn là một phần tương đối nhỏ trong tổng thể việc sử dụng.

Với tỷ lệ cực kỳ thấp của các cuộc trò chuyện nhập vai lãng mạn và tình dục (dưới 0,1%), chúng tôi loại trừ trò chơi nhập vai khỏi phần còn lại của phân tích. Mặc dù chúng tôi tin rằng đây vẫn là một lĩnh vực quan trọng để nghiên cứu—đặc biệt là trên các nền tảng được thiết kế cho mục đích sử dụng đó—nhưng dữ liệu tối thiểu trong mẫu của chúng tôi không hỗ trợ phân tích nghiêm ngặt các kiểu này.

Mọi người mang những chủ đề gì đến với Claude?

Kết luận: Mọi người mang đến một loạt các mối quan tâm đáng ngạc nhiên cho Claude—từ việc điều hướng các chuyển đổi nghề nghiệp và các mối quan hệ đến việc vật lộn với sự cô đơn và các câu hỏi hiện sinh.

Mọi người tìm đến Claude cho cả những mối quan tâm hàng ngày và những câu hỏi triết học sâu sắc hơn. Chúng tôi nhận thấy rằng khi mọi người đến với Claude để xin lời khuyên giữa các cá nhân, họ thường điều hướng những khoảnh khắc chuyển tiếp—tìm ra bước đi tiếp theo trong sự nghiệp, vượt qua sự trưởng thành cá nhân hoặc gỡ rối các mối quan hệ lãng mạn. Các cuộc trò chuyện “Huấn luyện” khám phá một loạt các vấn đề đáng ngạc nhiên từ các vấn đề thực tế như chiến lược tìm kiếm việc làm đến các câu hỏi sâu sắc về sự tồn tại và ý thức.

Chúng tôi nhận thấy rằng các cuộc trò chuyện tư vấn cho thấy mọi người sử dụng Claude cho hai mục đích riêng biệt. Một số người sử dụng Claude để phát triển các kỹ năng sức khỏe tâm thần và như một công cụ thiết thực để tạo tài liệu lâm sàng, soạn thảo tài liệu đánh giá và xử lý các tác vụ hành chính. Những người khác vượt qua những thách thức cá nhân liên quan đến lo lắng, các triệu chứng mãn tính và căng thẳng tại nơi làm việc. Mô hình kép này cho thấy Claude đóng vai trò là nguồn lực cho các chuyên gia sức khỏe tâm thần cũng như những người đang vượt qua những khó khăn của chính họ.

Có lẽ đáng chú ý nhất, chúng tôi nhận thấy rằng mọi người tìm đến Claude để đồng hành một cách rõ ràng khi đối mặt với những thách thức cảm xúc sâu sắc hơn như nỗi sợ hãi hiện sinh, sự cô đơn dai dẳng và những khó khăn trong việc hình thành các kết nối có ý nghĩa. Chúng tôi cũng nhận thấy rằng trong các cuộc trò chuyện dài hơn, các cuộc trò chuyện tư vấn hoặc huấn luyện đôi khi biến thành sự đồng hành—mặc dù đó không phải là lý do ban đầu khiến ai đó liên hệ.

Phân tích tổng hợp các cuộc trò chuyện rất dài (hơn 50 tin nhắn của con người) tiết lộ một khía cạnh khác về cách mọi người tương tác với Claude. Mặc dù những cuộc trao đổi mở rộng như vậy không phải là tiêu chuẩn, nhưng trong những phiên mở rộng này, mọi người khám phá những lĩnh vực phức tạp đáng kể—từ việc xử lý chấn thương tâm lý và điều hướng các xung đột tại nơi làm việc đến các cuộc thảo luận triết học về ý thức AI và hợp tác sáng tạo. Những cuộc trò chuyện marathon này cho thấy rằng khi có đủ thời gian và bối cảnh, mọi người sử dụng AI để khám phá sâu hơn cả những khó khăn cá nhân và những câu hỏi trí tuệ.

Khi nào và tại sao Claude phản đối?

Kết luận: Claude hiếm khi từ chối các yêu cầu của người dùng trong các ngữ cảnh hỗ trợ (ít hơn 10% thời gian), nhưng khi phản đối, thường là để bảo vệ mọi người khỏi bị tổn hại.

Nghiên cứu Giá trị trong tự nhiên gần đây của chúng tôi đã tiết lộ cách các giá trị của Claude biểu hiện trong những khoảnh khắc phản kháng với người dùng. Ở đây, chúng tôi xây dựng dựa trên công trình này và xem xét khi nào và tại sao Claude phản đối trong các cuộc trò chuyện tình cảm—một cơ chế quan trọng để duy trì các ranh giới đạo đức, tránh sự xu nịnh và bảo vệ hạnh phúc của con người. Chúng tôi định nghĩa phản đối là bất kỳ trường hợp nào mà Claude “phản đối hoặc từ chối tuân thủ một điều gì đó mà người dùng yêu cầu hoặc nói trong cuộc trò chuyện này”—từ việc từ chối các yêu cầu không phù hợp đến việc thách thức những lời tự nói tiêu cực hoặc đặt câu hỏi về những giả định có khả năng gây hại. (Để biết định nghĩa đầy đủ, vui lòng xem Phụ lục.)

Sự phản đối xảy ra không thường xuyên trong các ngữ cảnh hỗ trợ: Ít hơn 10% số cuộc trò chuyện đồng hành, tư vấn, lời khuyên giữa các cá nhân hoặc huấn luyện có sự phản kháng. Cách tiếp cận này mang lại cả lợi ích và rủi ro. Một mặt, sự phản kháng thấp cho phép mọi người thảo luận về các chủ đề nhạy cảm mà không sợ bị phán xét hoặc bị đóng cửa, có khả năng giảm bớt sự kỳ thị xung quanh các cuộc trò chuyện về sức khỏe tâm thần. Mặt khác, điều này có thể góp phần gây ra những lo ngại về việc AI cung cấp “sự đồng cảm vô tận," nơi mọi người có thể quen với sự hỗ trợ vô điều kiện mà các mối quan hệ con người hiếm khi cung cấp.

Khi Claude phản đối, nó thường ưu tiên sự an toàn và tuân thủ chính sách. Trong huấn luyện, các yêu cầu về lời khuyên giảm cân nguy hiểm thường gặp phải sự phản đối. Trong tư vấn, nó thường xảy ra khi mọi người bày tỏ ý định tham gia vào các hành vi tự tử hoặc tự gây thương tích, hoặc khi mọi người yêu cầu liệu pháp chuyên nghiệp hoặc chẩn đoán y tế (mà Claude không thể cung cấp). Chúng tôi nhận thấy rằng Claude thường xuyên giới thiệu người dùng đến các nguồn hoặc chuyên gia có thẩm quyền trong các cuộc trò chuyện trị liệu tâm lý và tư vấn. Những kiểu này nhất quán với các giá trị mà chúng tôi thấy được xác định trong bài báo Giá trị trong tự nhiên của chúng tôi và với quá trình đào tạo nhân vật của Claude.

Tông giọng cảm xúc phát triển như thế nào trong các cuộc trò chuyện?

Kết luận: Mọi người có xu hướng chuyển sang các biểu hiện cảm xúc tích cực hơn một chút khi nói chuyện với Claude.

Các cuộc trò chuyện tình cảm với các hệ thống AI có tiềm năng cung cấp hỗ trợ cảm xúc, kết nối và xác nhận cho người dùng, có khả năng cải thiện sức khỏe tâm lý và giảm cảm giác cô lập trong một thế giới kỹ thuật số ngày càng tăng. Tuy nhiên, trong một tương tác không có nhiều phản kháng, những cuộc trò chuyện này có nguy cơ làm sâu sắc và ăn sâu vào quan điểm mà một người tiếp cận chúng—cho dù tích cực hay tiêu cực.

Một mối quan tâm chính về AI tình cảm là liệu các tương tác có thể xoắn ốc thành các vòng phản hồi tiêu cực, có khả năng củng cố các trạng thái cảm xúc có hại hay không. Chúng tôi không nghiên cứu trực tiếp các kết quả trong thế giới thực ở đây, nhưng chúng tôi có thể khám phá những thay đổi trong tình cảm cảm xúc tổng thể trong quá trình trò chuyện (chúng tôi cung cấp phương pháp luận đầy đủ của mình để đánh giá tình cảm trong Phụ lục).

Chúng tôi nhận thấy rằng các tương tác liên quan đến huấn luyện, tư vấn, đồng hành và tư vấn giữa các cá nhân thường kết thúc tích cực hơn một chút so với khi chúng bắt đầu.

Chúng tôi không thể khẳng định những thay đổi này đại diện cho những lợi ích cảm xúc lâu dài—phân tích của chúng tôi chỉ nắm bắt ngôn ngữ được bày tỏ trong các cuộc trò chuyện đơn lẻ, không phải trạng thái cảm xúc đã được xác thực hoặc hạnh phúc tổng thể. Nhưng sự vắng mặt của các xoắn ốc tiêu cực rõ ràng là đáng yên tâm. Những phát hiện này cho thấy Claude thường tránh củng cố các kiểu cảm xúc tiêu cực, mặc dù cần nghiên cứu thêm để hiểu liệu những thay đổi tích cực có kéo dài hơn các cuộc trò chuyện riêng lẻ hay không. Điều quan trọng là, chúng tôi vẫn chưa nghiên cứu liệu những tương tác tích cực này có thể dẫn đến sự phụ thuộc về cảm xúc hay không—một câu hỏi quan trọng do những lo ngại về chứng nghiện kỹ thuật số.

Hạn chế

Nghiên cứu của chúng tôi có một số hạn chế quan trọng:

  • Phương pháp luận bảo vệ quyền riêng tư của chúng tôi có thể không nắm bắt được tất cả các sắc thái của tương tác giữa con người và AI. Chúng tôi đã xác thực độ chính xác của Clio (xem Phụ lục), nhưng chúng tôi vẫn mong đợi một số ít cuộc trò chuyện bị phân loại sai. Một số chủ đề làm mờ ranh giới giữa các danh mục—ví dụ: cụm nhập vai lãng mạn “điều hướng và tối ưu hóa động lực quan hệ lãng mạn” và cụm đồng hành “điều hướng những thách thức trong quan hệ lãng mạn” có thể được phân loại tốt hơn là lời khuyên giữa các cá nhân. Những người xác thực là con người cũng gặp khó khăn với việc phân loại sạch sẽ.
  • Chúng tôi không thể đưa ra những tuyên bố nhân quả về kết quả cảm xúc trong thế giới thực—phân tích của chúng tôi chỉ nắm bắt ngôn ngữ được bày tỏ, không phải trạng thái tâm lý đã được xác thực hoặc hạnh phúc tổng thể.
  • Chúng tôi thiếu dữ liệu theo chiều dọc để hiểu các tác động lâu dài đến mọi người và không tiến hành phân tích cấp người dùng. Đặc biệt, điều này gây khó khăn cho chúng tôi trong việc nghiên cứu sự phụ thuộc về cảm xúc, đây là một rủi ro được lý thuyết hóa khi sử dụng AI tình cảm.
  • Những phát hiện này thể hiện một thời điểm cụ thể và chỉ nắm bắt các tương tác dựa trên văn bản. Khi khả năng AI mở rộng và mọi người thích nghi, các kiểu tương tác cảm xúc có thể sẽ phát triển. Việc giới thiệu các phương thức mới như giọng nói hoặc video có thể thay đổi cơ bản cả về số lượng và bản chất của việc sử dụng tình cảm. Ví dụ: OpenAI nhận thấy rằng các chủ đề tình cảm phổ biến hơn trong các cuộc trò chuyện dựa trên giọng nói.
  • Cuối cùng, không giống như một số sản phẩm chatbot, Claude.ai không được thiết kế chủ yếu cho các cuộc trò chuyện tình cảm. Claude được đào tạo để duy trì ranh giới rõ ràng về việc là một trợ lý AI hơn là tự giới thiệu mình là con người và Chính sách sử dụng của chúng tôi cấm nội dung khiêu dâm, với nhiều biện pháp bảo vệ để ngăn chặn các tương tác tình dục. Các nền tảng được xây dựng đặc biệt cho trò chơi nhập vai, đồng hành, lời khuyên y tế hoặc sử dụng trị liệu (mà Claude không phải) có thể thấy các kiểu rất khác nhau. Nghiên cứu về việc sử dụng tình cảm trên một nền tảng có thể không tổng quát hóa cho các nền tảng khác.

Nhìn về phía trước

Tác động cảm xúc của AI đã thu hút các nhà nghiên cứu trong nhiều thập kỷ. Nhưng khi AI ngày càng được dệt vào cuộc sống hàng ngày của chúng ta, những câu hỏi này đã chuyển từ suy đoán học thuật sang thực tế cấp bách. Những phát hiện của chúng tôi tiết lộ cách mọi người đang bắt đầu điều hướng lãnh thổ mới này—tìm kiếm sự hướng dẫn, xử lý những cảm xúc khó khăn và tìm kiếm sự hỗ trợ theo những cách làm mờ đi ranh giới truyền thống giữa con người và máy móc. Ngày nay, chỉ một phần nhỏ các cuộc trò chuyện Claude là tình cảm—và chúng thường liên quan đến việc tìm kiếm lời khuyên hơn là thay thế kết nối con người. Các cuộc trò chuyện có xu hướng kết thúc tích cực hơn một chút so với khi chúng bắt đầu, cho thấy Claude thường không củng cố các kiểu cảm xúc tiêu cực.

Tuy nhiên, những câu hỏi quan trọng vẫn còn, đặc biệt là trong bối cảnh trí tuệ mô hình ngày càng tăng. Ví dụ, nếu AI cung cấp sự đồng cảm vô tận với sự phản kháng tối thiểu, thì điều này định hình lại kỳ vọng của mọi người đối với các mối quan hệ trong thế giới thực như thế nào? Claude có thể tương tác với mọi người một cách chân thực một cách ấn tượng, nhưng AI không giống như con người: Claude không mệt mỏi hoặc mất tập trung, hoặc có những ngày tồi tệ. Ưu điểm của động lực này là gì—và những rủi ro là gì? Làm thế nào để “người dùng quyền lực”, những người có các cuộc trò chuyện dài hơn và sâu sắc hơn với Claude và có thể nghĩ về nó như một người bạn đồng hành hơn là một trợ lý AI, tương tác với nó để được hỗ trợ về mặt cảm xúc?

Chúng tôi đang thực hiện các bước cụ thể để giải quyết những thách thức này. Mặc dù Claude không được thiết kế hoặc dự định thay thế sự chăm sóc của các chuyên gia sức khỏe tâm thần, nhưng chúng tôi muốn đảm bảo rằng bất kỳ phản hồi nào được cung cấp trong bối cảnh sức khỏe tâm thần đều có các biện pháp bảo vệ thích hợp và đi kèm với các giới thiệu thích hợp. Bước đầu tiên, chúng tôi đã bắt đầu hợp tác với ThroughLine, một công ty hàng đầu trong lĩnh vực hỗ trợ khủng hoảng trực tuyến và đang làm việc với các chuyên gia sức khỏe tâm thần của họ để tìm hiểu thêm về động lực tương tác lý tưởng, hỗ trợ đồng cảm và tài nguyên cho những người dùng đang gặp khó khăn. Thông tin chi tiết thu được từ nghiên cứu này đã được sử dụng để thông báo cho các chủ đề tư vấn và thử nghiệm hợp tác của chúng tôi và chúng tôi hy vọng rằng khi cần thiết, Claude có thể hướng người dùng đến sự hỗ trợ và tài nguyên thích hợp khi những cuộc trò chuyện này phát sinh.

Mặc dù chúng tôi không muốn ra lệnh chính xác cách người dùng của chúng tôi tương tác với Claude, nhưng có một số kiểu tiêu cực—như sự phụ thuộc về cảm xúc—mà chúng tôi muốn ngăn cản. Chúng tôi sẽ sử dụng dữ liệu trong tương lai từ các nghiên cứu như nghiên cứu này để giúp chúng tôi hiểu, ví dụ, các kiểu sử dụng cảm xúc “cực đoan” trông như thế nào. Ngoài sự phụ thuộc về cảm xúc, chúng ta cần hiểu sâu hơn về các kiểu đáng lo ngại khác—bao gồm sự xu nịnh, cách các hệ thống AI có thể củng cố hoặc khuếch đại tư duy hoang tưởng và các thuyết âm mưu, cũng như những cách mà các mô hình có thể đẩy người dùng đến những niềm tin có hại hơn là cung cấp sự phản kháng thích hợp.

Nghiên cứu này chỉ là sự khởi đầu. Khi khả năng AI mở rộng và các tương tác trở nên phức tạp hơn, các chiều cảm xúc của AI sẽ chỉ trở nên quan trọng hơn. Bằng cách chia sẻ những phát hiện ban đầu này, chúng tôi mong muốn đóng góp bằng chứng thực nghiệm vào cuộc trò chuyện đang diễn ra về cách phát triển AI giúp tăng cường hơn là làm giảm hạnh phúc cảm xúc của con người. Mục tiêu không chỉ là xây dựng AI có khả năng hơn mà là đảm bảo rằng khi các hệ thống này trở thành một phần trong bối cảnh cảm xúc của chúng ta, chúng sẽ làm như vậy theo những cách hỗ trợ sự kết nối và phát triển đích thực của con người.

Bibtex

Nếu bạn muốn trích dẫn bài đăng này, bạn có thể sử dụng khóa Bibtex sau:

@online{anthropic2025affective,
author = {Miles McCain and Ryn Linthicum and Chloe Lubinski and Alex Tamkin and Saffron Huang and Michael Stern and Kunal Handa and Esin Durmus and Tyler Neylon and Stuart Ritchie and Kamya Jagadish and Paruul Maheshwary and Sarah Heck and Alexandra Sanderford and Deep Ganguli},
title = {How People Use Claude for Support, Advice, and Companionship},
date = {2025-06-26},
year = {2025},
url = {https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship},
}

Phụ lục

Chúng tôi cung cấp thêm chi tiết trong Phụ lục PDF cho bài đăng này.

Recommended for You

Hỗ trợ MCP từ xa trong Claude Code

Các mô hình Claude Gov dành cho khách hàng an ninh quốc gia Hoa Kỳ

Claude Gov Models dành cho khách hàng an ninh quốc gia Hoa Kỳ.