Dệt nên thực tế hay bóp méo nó? Cái bẫy cá nhân hóa trong các hệ thống AI

Bài viết thảo luận về việc các hệ thống AI có thể tạo ra các cái bẫy cá nhân hóa.

  • 15 min read
Dệt nên thực tế hay bóp méo nó? Cái bẫy cá nhân hóa trong các hệ thống AI
Bài viết thảo luận về việc các hệ thống AI có thể tạo ra các cái bẫy cá nhân hóa.

Dệt nên thực tế hay bóp méo nó? Bẫy cá nhân hóa trong các hệ thống AI

Mỗi phiên bản thực tế của chúng ta đang thay đổi với AI. Điều này có thể xói mòn khả năng thống nhất về những sự thật cơ bản hoặc vượt qua những thách thức chung.

AI thể hiện sự giảm tải nhận thức lớn nhất trong lịch sử nhân loại. Chúng ta đã từng giảm tải trí nhớ cho việc viết, số học cho máy tính và điều hướng cho GPS. Giờ đây, chúng ta bắt đầu giảm tải khả năng phán đoán, tổng hợp và thậm chí tạo ý nghĩa cho các hệ thống nói ngôn ngữ của chúng ta, học thói quen của chúng ta và điều chỉnh sự thật của chúng ta.

Các hệ thống AI ngày càng trở nên điêu luyện trong việc nhận ra sở thích, thành kiến và thậm chí cả những thói quen xấu của chúng ta. Giống như những người hầu chu đáo trong một trường hợp hoặc những kẻ thao túng tinh vi trong một trường hợp khác, chúng điều chỉnh phản ứng của mình để làm hài lòng, thuyết phục, hỗ trợ hoặc đơn giản là giữ sự chú ý của chúng ta.

Mặc dù những ảnh hưởng tức thời có vẻ vô hại, nhưng trong sự điều chỉnh thầm lặng và vô hình này nằm một sự thay đổi sâu sắc: Phiên bản thực tế mà mỗi chúng ta nhận được ngày càng được điều chỉnh riêng biệt hơn. Thông qua quá trình này, theo thời gian, mỗi người ngày càng trở thành hòn đảo của riêng mình. Sự khác biệt này có thể đe dọa tính mạch lạc và ổn định của chính xã hội, xói mòn khả năng thống nhất về những sự thật cơ bản hoặc vượt qua những thách thức chung.

Cá nhân hóa AI không chỉ phục vụ nhu cầu của chúng ta; nó bắt đầu định hình lại chúng. Kết quả của việc định hình lại này là một loại trôi dạt tri thức. Mỗi người bắt đầu di chuyển, từng chút một, ra khỏi nền tảng chung của kiến thức, câu chuyện và sự thật được chia sẻ, và tiến xa hơn vào thực tế của riêng họ.

Đây không chỉ đơn thuần là vấn đề về các nguồn cấp tin tức khác nhau. Đó là sự khác biệt chậm chạp về thực tế đạo đức, chính trị và giữa các cá nhân. Bằng cách này, chúng ta có thể đang chứng kiến ​​sự tháo gỡ sự hiểu biết chung. Đó là một hậu quả không mong muốn, nhưng lại vô cùng quan trọng chính xác vì nó không lường trước được. Nhưng sự phân mảnh này, mặc dù hiện nay được AI đẩy nhanh, đã bắt đầu từ rất lâu trước khi các thuật toán định hình nguồn cấp dữ liệu của chúng ta.

Sự tháo gỡ

Sự tháo gỡ này không bắt đầu với AI. Như David Brooks đã suy ngẫm trên The Atlantic, dựa trên công trình của nhà triết học Alasdair MacIntyre, xã hội của chúng ta đã trôi dạt khỏi các khuôn khổ đạo đức và tri thức chung trong nhiều thế kỷ. Kể từ thời Khai sáng, chúng ta đã dần thay thế các vai trò kế thừa, các câu chuyện cộng đồng và các truyền thống đạo đức được chia sẻ bằng quyền tự chủ cá nhân và sở thích cá nhân.

Những gì bắt đầu như sự giải phóng khỏi các hệ thống niềm tin áp đặt, theo thời gian, đã xói mòn chính những cấu trúc từng gắn kết chúng ta với mục đích chung và ý nghĩa cá nhân. AI không tạo ra sự phân mảnh này. Nhưng nó đang mang lại hình thức và tốc độ mới cho nó, tùy chỉnh không chỉ những gì chúng ta thấy mà còn cả cách chúng ta giải thích và tin tưởng.

Nó không giống như câu chuyện Kinh thánh về Babel. Một nhân loại thống nhất đã từng có chung một ngôn ngữ duy nhất, chỉ để bị chia cắt, bối rối và phân tán bởi một hành động khiến sự hiểu biết lẫn nhau trở nên gần như không thể. Ngày nay, chúng ta không xây dựng một tòa tháp bằng đá. Chúng ta đang xây dựng một tòa tháp bằng chính ngôn ngữ. Một lần nữa, chúng ta có nguy cơ sụp đổ.

Mối liên kết giữa người và máy

Ban đầu, cá nhân hóa là một cách để cải thiện “độ dính” bằng cách giữ cho người dùng tương tác lâu hơn, quay lại thường xuyên hơn và tương tác sâu hơn với một trang web hoặc dịch vụ. Các công cụ đề xuất, quảng cáo được điều chỉnh và nguồn cấp dữ liệu được tuyển chọn đều được thiết kế để giữ sự chú ý của chúng ta lâu hơn một chút, có lẽ để giải trí nhưng thường là để thúc đẩy chúng ta mua một sản phẩm. Nhưng theo thời gian, mục tiêu đã được mở rộng. Cá nhân hóa không còn chỉ là những gì giữ chúng ta lại. Đó là những gì nó biết về mỗi người chúng ta, đồ thị động về sở thích, niềm tin và hành vi của chúng ta trở nên tinh tế hơn theo mỗi tương tác.

Các hệ thống AI ngày nay không chỉ dự đoán sở thích của chúng ta. Họ nhắm đến việc tạo ra một mối liên kết thông qua các tương tác và phản hồi được cá nhân hóa cao, tạo ra cảm giác rằng hệ thống AI hiểu và quan tâm đến người dùng và hỗ trợ sự độc đáo của họ. Giọng điệu của chatbot, tốc độ trả lời và giá trị cảm xúc của một đề xuất được hiệu chỉnh không chỉ để đạt hiệu quả mà còn để cộng hưởng, hướng tới một kỷ nguyên hữu ích hơn của công nghệ. Không có gì ngạc nhiên khi một số người thậm chí đã yêu và kết hôn với bot của họ.

Máy thích ứng không chỉ với những gì chúng ta nhấp vào, mà còn với những gì chúng ta dường như là. Nó phản ánh chúng ta trở lại chính chúng ta theo những cách cảm thấy thân mật, thậm chí là đồng cảm. Một bài báo nghiên cứu gần đây được trích dẫn trên Nature gọi đây là “sự liên kết về mặt xã hội”, quá trình mà một hệ thống AI tham gia vào một hệ sinh thái xã hội và tâm lý được đồng sáng tạo, nơi sở thích và nhận thức phát triển thông qua ảnh hưởng lẫn nhau.

Đây không phải là một sự phát triển trung lập. Khi mọi tương tác đều được điều chỉnh để tâng bốc hoặc khẳng định, khi các hệ thống phản ánh chúng ta quá tốt, chúng làm mờ ranh giới giữa những gì cộng hưởng và những gì là thật. Chúng ta không chỉ ở lại nền tảng lâu hơn; chúng ta đang hình thành một mối quan hệ. Chúng ta đang từ từ và có lẽ không thể lay chuyển hợp nhất với một phiên bản thực tế do AI làm trung gian, một phiên bản ngày càng được định hình bởi các quyết định vô hình về những gì chúng ta nên tin, muốn hoặc tin tưởng.

Quá trình này không phải là khoa học viễn tưởng; kiến ​​trúc của nó được xây dựng trên sự chú ý, học tăng cường với phản hồi của con người (RLHF) và các công cụ cá nhân hóa. Nó cũng đang xảy ra mà nhiều người trong chúng ta - có lẽ là hầu hết chúng ta - thậm chí không biết. Trong quá trình này, chúng ta có được “bạn bè” AI, nhưng với giá nào? Chúng ta mất gì, đặc biệt là về ý chí tự do và tác nhân?

Tác giả và nhà bình luận tài chính Kyla Scanlon đã nói trên podcast của Ezra Klein về việc sự dễ dàng không ma sát của thế giới kỹ thuật số có thể phải trả giá bằng ý nghĩa. Như cô ấy đã nói: “Khi mọi thứ quá dễ dàng, thật khó để tìm thấy ý nghĩa trong đó… Nếu bạn có thể nằm dài, xem màn hình trên chiếc ghế nhỏ của mình và được giao đồ uống sinh tố đến cho bạn - thật khó để tìm thấy ý nghĩa trong kiểu WALL-E như vậy vì mọi thứ đều hơi quá đơn giản.”

Cá nhân hóa sự thật

Khi các hệ thống AI phản hồi chúng ta với sự trôi chảy ngày càng lớn, chúng cũng tiến tới tính chọn lọc ngày càng tăng. Hai người dùng đặt cùng một câu hỏi ngày nay có thể nhận được các câu trả lời tương tự, phần lớn được phân biệt bởi bản chất xác suất của AI tạo sinh. Tuy nhiên, đây chỉ là sự khởi đầu. Các hệ thống AI mới nổi được thiết kế rõ ràng để điều chỉnh phản ứng của chúng theo các mẫu cá nhân, dần dần điều chỉnh câu trả lời, giọng điệu và thậm chí cả kết luận để cộng hưởng mạnh mẽ nhất với mỗi người dùng.

Cá nhân hóa không vốn dĩ là thao túng. Nhưng nó trở nên rủi ro khi nó vô hình, không thể giải trình hoặc được thiết kế nhiều hơn để thuyết phục hơn là cung cấp thông tin. Trong những trường hợp như vậy, nó không chỉ phản ánh chúng ta là ai; nó điều khiển cách chúng ta giải thích thế giới xung quanh.

Như Trung tâm Nghiên cứu về Các Mô hình Nền tảng của Stanford đã lưu ý trong chỉ số minh bạch năm 2024 của mình, ít mô hình hàng đầu tiết lộ liệu đầu ra của chúng có khác nhau theo danh tính, lịch sử hoặc nhân khẩu học của người dùng hay không, mặc dù giàn giáo kỹ thuật cho cá nhân hóa như vậy ngày càng được thiết lập và chỉ mới bắt đầu được xem xét. Mặc dù chưa được thực hiện đầy đủ trên các nền tảng công cộng, nhưng tiềm năng này để định hình phản hồi dựa trên hồ sơ người dùng suy luận, dẫn đến các thế giới thông tin ngày càng được điều chỉnh, thể hiện một sự thay đổi sâu sắc đã được tạo mẫu và tích cực theo đuổi bởi các công ty hàng đầu.

Cá nhân hóa này có thể có lợi và chắc chắn đó là hy vọng của những người xây dựng các hệ thống này. Dạy kèm được cá nhân hóa cho thấy hứa hẹn trong việc giúp người học tiến bộ theo tốc độ của riêng họ. Các ứng dụng sức khỏe tâm thần ngày càng điều chỉnh các phản hồi để hỗ trợ nhu cầu cá nhân và các công cụ trợ năng điều chỉnh nội dung để đáp ứng một loạt các khác biệt về nhận thức và cảm giác. Đây là những lợi ích thực sự.

Nhưng nếu các phương pháp thích ứng tương tự trở nên phổ biến trên các nền tảng thông tin, giải trí và liên lạc, thì một sự thay đổi sâu sắc hơn, đáng lo ngại hơn đang đến gần: Một sự chuyển đổi từ sự hiểu biết chung sang thực tế cá nhân, được điều chỉnh. Khi bản thân sự thật bắt đầu thích ứng với người quan sát, nó trở nên mong manh và ngày càng có thể hoán đổi cho nhau. Thay vì những bất đồng chủ yếu dựa trên các giá trị hoặc cách giải thích khác nhau, chúng ta có thể sớm thấy mình phải vật lộn chỉ để sống trong cùng một thế giới thực tế.

Thực tế được hòa giải

Tất nhiên, sự thật luôn được hòa giải. Trong các thời đại trước, nó đã thông qua bàn tay của các giáo sĩ, học giả, nhà xuất bản và người dẫn chương trình tin tức buổi tối, những người đóng vai trò là người gác cổng, định hình sự hiểu biết của công chúng thông qua lăng kính thể chế. Những nhân vật này chắc chắn không thoát khỏi thành kiến ​​hoặc chương trình nghị sự, nhưng họ hoạt động trong các khuôn khổ được chia sẻ rộng rãi.

Mô hình mới nổi ngày nay hứa hẹn một điều gì đó khác biệt về chất: sự thật do AI làm trung gian thông qua suy luận được cá nhân hóa, định hình, lọc và trình bày thông tin, định hình những gì người dùng tin tưởng. Nhưng không giống như những người hòa giải trong quá khứ, những người, mặc dù có những thiếu sót, nhưng hoạt động trong các tổ chức có thể nhìn thấy công khai, những người phân xử mới này là thương mại mờ ám, không được bầu và liên tục thích ứng, thường là không tiết lộ. Thành kiến ​​của họ không phải là giáo lý mà được mã hóa thông qua dữ liệu đào tạo, kiến ​​trúc và các ưu đãi của nhà phát triển không được kiểm tra.

Sự thay đổi là sâu sắc, từ một câu chuyện chung được lọc thông qua các tổ chức có thẩm quyền đến các câu chuyện có khả năng bị phá vỡ phản ánh một cơ sở hạ tầng hiểu biết mới, được điều chỉnh bởi các thuật toán theo sở thích, thói quen và niềm tin suy luận của mỗi người dùng. Nếu Babel đại diện cho sự sụp đổ của một ngôn ngữ được chia sẻ, thì bây giờ chúng ta có thể đứng trước ngưỡng cửa của sự sụp đổ của sự hòa giải chung.

Nếu cá nhân hóa là chất nền tri thức mới, thì cơ sở hạ tầng sự thật có thể trông như thế nào trong một thế giới không có người hòa giải cố định? Một khả năng là tạo ra các quỹ tín thác công cộng AI, được lấy cảm hứng từ một đề xuất từ học giả luật Jack Balkin, người lập luận rằng các thực thể xử lý dữ liệu người dùng và định hình nhận thức nên tuân theo các tiêu chuẩn ủy thác về lòng trung thành, sự quan tâm và minh bạch.

Các mô hình AI có thể được quản lý bởi các hội đồng minh bạch, được đào tạo trên các tập dữ liệu do nhà nước tài trợ và được yêu cầu hiển thị các bước lý luận, quan điểm thay thế hoặc mức độ tin cậy. Những “người ủy thác thông tin” này sẽ không loại bỏ thành kiến, nhưng họ có thể neo giữ niềm tin vào quá trình hơn là hoàn toàn vào cá nhân hóa. Người xây dựng có thể bắt đầu bằng cách áp dụng các “hiến pháp” minh bạch xác định rõ ràng hành vi của mô hình và bằng cách cung cấp các giải thích về chuỗi lý luận cho phép người dùng xem cách các kết luận được định hình. Đây không phải là những viên đạn bạc, nhưng chúng là những công cụ giúp giữ cho cơ quan tri thức có trách nhiệm và có thể theo dõi được.

Những người xây dựng AI phải đối mặt với một bước ngoặt chiến lược và dân sự. Họ không chỉ tối ưu hóa hiệu suất; họ cũng đang đối mặt với rủi ro rằng tối ưu hóa được cá nhân hóa có thể làm phân mảnh thực tế được chia sẻ. Điều này đòi hỏi một loại trách nhiệm mới đối với người dùng: Thiết kế các hệ thống tôn trọng không chỉ sở thích của họ mà còn cả vai trò của họ như những người học hỏi và tin tưởng.

Tháo gỡ và dệt lại

Những gì chúng ta có thể mất không chỉ đơn giản là khái niệm về sự thật, mà còn là con đường mà qua đó chúng ta từng nhận ra nó. Trong quá khứ, sự thật được hòa giải - mặc dù không hoàn hảo và thiên vị - vẫn được neo giữ trong phán đoán của con người và thường chỉ một hoặc hai lớp cách xa trải nghiệm sống của những người khác mà bạn biết hoặc ít nhất có thể liên hệ được.

Ngày nay, sự hòa giải đó là mờ ám và được thúc đẩy bởi logic thuật toán. Và, mặc dù tác nhân của con người từ lâu đã trượt dốc, nhưng giờ đây chúng ta có nguy cơ phải đối mặt với điều gì đó sâu sắc hơn, sự mất mát của chiếc la bàn đã từng cho chúng ta biết khi chúng ta đi sai hướng. Nguy hiểm không chỉ là chúng ta sẽ tin những gì máy nói với chúng ta. Đó là chúng ta sẽ quên cách chúng ta từng tự mình khám phá ra sự thật. Những gì chúng ta có nguy cơ mất không chỉ là tính mạch lạc, mà là ý chí tìm kiếm nó. Và với điều đó, một mất mát sâu sắc hơn: Những thói quen phân biệt, bất đồng và cân nhắc mà trước đây đã gắn kết các xã hội đa nguyên lại với nhau.

Nếu Babel đánh dấu sự tan vỡ của một ngôn ngữ chung, thì thời điểm của chúng ta có nguy cơ làm phai nhạt sự thật được chia sẻ. Tuy nhiên, có những cách để làm chậm hoặc thậm chí chống lại sự trôi dạt. Một mô hình giải thích lý luận của nó hoặc tiết lộ ranh giới thiết kế của nó có thể làm được nhiều hơn là làm rõ đầu ra. Nó có thể giúp khôi phục các điều kiện cho cuộc điều tra chung. Đây không phải là một giải pháp kỹ thuật; đó là một lập trường văn hóa. Xét cho cùng, sự thật luôn phụ thuộc không chỉ vào câu trả lời, mà còn vào cách chúng ta cùng nhau đạt được chúng.

						<div class="image-container">
				<img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt="">
			</div>
		
	</div>

Recommended for You

5 câu hỏi quan trọng mà nhà phát triển của bạn nên hỏi về MCP

5 câu hỏi quan trọng mà nhà phát triển của bạn nên hỏi về MCP

Bài viết thảo luận về 5 câu hỏi quan trọng mà các nhà phát triển nên hỏi về MCP (Marketplace Connect Platform) để hiểu rõ hơn về nền tảng này và cách tận dụng nó một cách hiệu quả.

Làm thế nào đội đỏ của OpenAI biến tác nhân ChatGPT thành một pháo đài AI

Làm thế nào đội đỏ của OpenAI biến tác nhân ChatGPT thành một pháo đài AI

Đội đỏ của OpenAI có kế hoạch biến tác nhân ChatGPT thành một pháo đài AI.