Thời điểm đó, thế giới vận hành dựa trên những quy luật vật lý và tâm lý học con người một cách thủ công nhưng chân thực. Việc tuyển dụng một nhân sự dựa trên sự quan sát tinh tế của nhà tuyển dụng qua một buổi phỏng vấn trực tiếp; việc đánh giá một bản thảo sách dựa trên cảm nhận chủ quan nhưng đầy kinh nghiệm của một biên tập viên lão làng; hay việc dự đoán xu hướng thị trường dựa trên những số liệu thống kê cơ bản kết hợp với sự nhạy bén nghề nghiệp. Mọi thứ diễn ra chậm rãi, có sai số, nhưng nó mang đậm hơi thở của sự thấu cảm giữa người với người.
Con người tin vào kinh nghiệm tích lũy qua hàng chục năm và những giá trị nhân bản vốn không thể mã hóa thành những dòng code khô khan. Đó là thời kỳ mà "trí tuệ" được hiểu là sự tổng hòa của kiến thức, đạo đức và những trải nghiệm sống không thể sao chép.
Thế nhưng, chỉ trong một cái chớp mắt của lịch sử, sự bùng nổ của Big Data và khả năng tính toán vô hạn của các siêu máy tính đã đẩy chúng ta vào một cơn lốc chuyển dịch chóng mặt đến mức nghẹt thở. Chúng ta không còn đứng ngoài quan sát công nghệ nữa, mà đã bị cuốn phăng vào một sự phụ thuộc nhanh chóng, đôi khi là mù quáng. AI không còn là một công cụ hỗ trợ nằm trong phòng thí nghiệm, nó đã trở thành một "vị thần" mới ngự trị trên bàn làm việc của mọi văn phòng thậm chí là len lỏi vào từng ngóc ngách của đời sống.
Sự sùng bái thuật toán diễn ra ở mọi cấp độ, từ các tập đoàn đa quốc gia đến những cá nhân làm nghề tự do. Chúng ta bắt đầu tin rằng AI có thể giải quyết mọi bài toán nan giải nhất của nhân loại, từ việc dự đoán hành vi tiêu dùng li ti đến việc định đoạt tương lai của một con người. Đây là lúc AI được nhìn nhận dưới một lăng kính duy nhất, dễ tiếp cận nhưng thực tế lại không hề chính xác như chúng ta lầm tưởng.
Hệ quả trực tiếp của sự phụ thuộc này chính là làn sóng lay-off hàng loạt đang càn quét khắp toàn cầu từ năm 2024 đến nay. Các doanh nghiệp cắt giảm nhân sự vì tin rằng một mô hình ngôn ngữ lớn hay một thuật toán dự đoán có thể thay thế hoàn toàn trí tuệ con người với chi phí rẻ hơn và hiệu suất cao hơn.
Nhưng liệu đây là một cuộc cách mạng hiệu suất thực sự, hay chúng ta đang vô tình giao phó vận mệnh của mình cho những thuật toán được thổi phồng quá mức?
Chính trong tâm bão của sự hoang mang và những lời hứa hẹn viển vông về một tương lai tự động hóa hoàn mỹ, cuốn sách "AI - Lợi & Hại" của Arvind Narayanan và Sayash Kapoor xuất hiện như một cuộc phản biện sắc sảo, bóc tách sự thật nghiệt ngã đằng sau chiếc mặt nạ của trí tuệ nhân tạo.
Hai tác giả không chỉ viết một cuốn sách về công nghệ, họ đang viết một bản tuyên ngôn để bảo vệ giá trị con người trước sự xâm lấn của những "tay buôn dầu rắn" thời hiện đại.
Những "Kẻ Phản Biện" giữa thánh đường công nghệ
Để hiểu được sức nặng và tính thời điểm của cuốn sách này, chúng ta cần nhìn sâu vào chân dung của hai vị "kiến trúc sư" đứng sau nó.

Arvind Narayanan không phải là một kẻ ngoại đạo đứng ngoài để phán xét công nghệ bằng những lý thuyết suông. Ông là một giáo sư khoa học máy tính lỗi lạc tại Đại học Princeton, người đã dành cả đời để nghiên cứu về quyền riêng tư, đạo đức dữ liệu và sự minh bạch của thuật toán. Cùng với cộng sự Sayash Kapoor, họ không viết cuốn sách này như một bản án tử cho AI, mà như một bộ lọc tinh vi để cứu vãn những giá trị thực sự của tiến bộ khoa học. Trước khi cuốn sách này trở thành hiện tượng toàn cầu, bản tin (newsletter) mang tên "AI Snake Oil" của họ đã là nơi trú ẩn cho những ai hoài nghi về "ánh hào quang" giả tạo của thung lũng Silicon. Họ là những người đã chứng kiến tận mắt từ bên trong cách mà các công ty công nghệ sử dụng các thuật ngữ chuyên môn phức tạp như "Deep Learning" hay "Neural Networks" để che đậy những khiếm khuyết trong sản phẩm của mình.
Narayanan và Kapoor thực hiện một cuộc phân loại trí tuệ đầy quyền năng, chia AI thành ba nhóm chính. Đầu tiên là AI nhận diện (Perception AI) – một thành tựu thực sự vĩ đại. Khi bạn mở khóa điện thoại bằng khuôn mặt, đó là lúc AI phát huy sức mạnh vượt xa con người. Loại thứ hai là AI tạo sinh (Generative AI) như ChatGPT, vốn rất ấn tượng nhưng lại cực kỳ mong manh vì nó chỉ "mô phỏng" lại ngôn ngữ mà không có sự hiểu biết thực sự. Tuy nhiên, sai lầm chết người nhất bắt đầu ở loại thứ ba: AI dự đoán hành động xã hội (Predictive AI). Đây chính là trọng tâm của thuật ngữ "Dầu rắn" (Snake Oil).
Khái niệm "Dầu rắn" có nguồn gốc từ thế kỷ 19 tại Mỹ, khi những tay buôn thuốc dạo rao bán những lọ dầu làm từ mỡ rắn (thường là giả) với lời hứa chữa bách bệnh. Thực chất, chúng không có giá trị y tế nào nhưng được thổi phồng nhờ kỹ năng tiếp thị xảo quyệt.

Trong kỷ nguyên số, Narayanan và Kapoor gọi các hệ thống AI dự đoán xã hội là "dầu rắn" vì chúng được quảng cáo là có thể dự đoán ai sẽ là nhân viên tốt, ai có khả năng tái phạm tội, hay ai sẽ thành công trong học tập… nhưng thực tế chúng không hiệu quả hơn các mô hình thống kê đơn giản.
Các công ty công nghệ đã dùng thành công của AI nhận diện để làm "bảo chứng" giả cho sự yếu kém của AI dự đoán, đánh lừa các tổ chức đang khao khát một giải pháp tự động hóa nhanh chóng. Sự đánh lận con đen này cực kỳ nguy hiểm, bởi dự đoán xem một tấm ảnh là con chó hay con mèo hoàn toàn khác với việc dự đoán xem một con người có đủ năng lực để đảm đương một vị trí lãnh đạo hay không.
Dự đoán và sự khủng hoảng khoa học
Đi sâu vào phần phân tích kỹ thuật và xã hội, cuốn sách thực hiện một cuộc phẫu thuật tỉ mỉ lên các mô hình AI dự đoán kết quả xã hội, thứ mà các tác giả gọi là "trò bịp AI" thực thụ vì tính chất lừa mị của nó. Narayanan và Kapoor lập luận rằng, việc dự đoán tương lai của một con người là một nhiệm vụ bất khả thi đối với máy móc vì nó thiếu đi bối cảnh lịch sử, sự thấu cảm và những biến số ngẫu nhiên không thể định lượng của đời sống. Một trong những điểm gây chấn động nhất trong chương này là việc vạch trần hiện tượng "rò rỉ dữ liệu". Các tác giả dẫn chứng rằng rất nhiều bài báo khoa học về AI được ca tụng thực chất là "khoa học rác" vì trong quá trình huấn luyện, mô hình đã vô tình được tiếp cận với đáp án trước khi thực hiện bài kiểm tra.
Cuốn sách mổ xẻ các tình huống "dự đoán sai người" trong hệ thống tư pháp hình sự hay tuyển dụng nhân sự. Minh chứng đắt giá nhất là "Thử thách Gia đình dễ tổn thương”. Trong thí nghiệm này, các mô hình AI phức tạp nhất thực tế không cho kết quả tốt hơn một mô hình thống kê lớp 10 với chỉ vài biến số đơn giản.
Tác giả gọi đây là hiện tượng "Xổ số meme", nơi cuộc đời con người bị chi phối bởi vô vàn biến số ngẫu nhiên, sự nỗ lực cá nhân và những thay đổi môi trường mà thuật toán không bao giờ "nhìn" thấy được.
Tại sao chúng ta vẫn tôn sùng AI dự đoán? Bởi vì nó mang lại "vẻ đẹp của sự phức tạp" và giúp nhà quản lý trốn tránh trách nhiệm giải trình. Khi một thuật toán quyết định sa thải một nhân viên, người ta dễ dàng đổ lỗi cho công nghệ hơn là thừa nhận sự sai sót trong quy trình của chính mình.
AI không tự tạo ra định kiến, nó chỉ là một tấm gương phản chiếu những sai lệch, những bất công có sẵn trong dữ liệu lịch sử của con người. Nếu xã hội trong quá khứ thiên vị nam giới, AI sẽ tự động học được rằng "nam giới" là một đặc điểm của sự thành công và âm thầm loại bỏ những hồ sơ nữ giới xuất sắc.
Đây là một sự bất công được "tự động hóa" và "số hóa", khiến chúng ta khó lòng phản kháng vì nó núp bóng dưới cái mác "khách quan của máy móc". Sự "tự động hóa quá mức" này không chỉ làm gia tăng bất bình đẳng hiện có mà còn triệt tiêu tính nhân văn trong các quyết định quan trọng của cuộc đời.

Chặng đường đến AI Tạo Sinh và sự chiếm đoạt lao động sáng tạo
Tác giả vạch trần rằng AI tạo sinh không tự nảy sinh ý tưởng, nó được xây dựng dựa trên sự tích lũy thành tựu của hàng triệu họa sĩ, nhiếp ảnh gia và người viết lách mà không hề có sự trả phí hay xin phép. Ý nghĩa kỹ thuật và văn hóa của tập dữ liệu ImageNet đã bộc lộ cái giá của sự cải tiến, đó là sự chiếm đoạt lao động sáng tạo. Khi các công ty AI sử dụng ảnh của các nhiếp ảnh gia mà không trả phí, họ đang gây mất việc hàng loạt trong ngành nhiếp ảnh và thiết kế.
Sự trỗi dậy của AI tạo sinh cũng mang đến những rủi ro âm thầm hơn như Deepfake, lừa đảo và hiện tượng tự động hóa bịa chuyện. Các Chatbot hiện nay, dù trông có vẻ thông minh, thực chất vẫn là những mô hình dự đoán thiếu đi sự hiểu biết thực sự về thế giới. Trong lĩnh vực mạng xã hội, các thuật toán AI đóng vai trò trung tâm trong việc lựa chọn nội dung và kiểm duyệt.
Tuy nhiên, tác giả đặt ra câu hỏi cốt lõi: liệu AI có thể xác định và loại bỏ nội dung độc hại mà vẫn bảo vệ tự do ngôn luận? Câu trả lời thường là thất bại, bởi AI không hiểu được ngữ cảnh, hàm ý mỉa mai hay các yếu tố văn hóa đặc thù. Những thất bại trong kiểm duyệt là hệ quả tất yếu của thiếu sót trong quy trình dân chủ, chứ không hẳn do AI yếu kém. Chúng ta đang thiếu một cơ chế minh bạch để định nghĩa cái gì là "độc hại" và cái gì là "chính đáng".
Tìm lại điểm tựa trí tuệ giữa kỷ nguyên số
Cuốn sách khép lại không phải bằng một thái độ bài bài trừ công nghệ cực đoan, cũng không bằng những nỗi sợ hãi viễn tưởng về viễn cảnh nhân loại bị tiêu diệt bởi một "AI siêu cấp" trong tương lai xa.
Trái lại, Narayanan và Kapoor đã thực hiện một cuộc giải ảo quan trọng khi chỉ ra rằng những lo ngại về sự tồn vong thường dựa trên một cái nhìn nhị phân thiếu cơ sở, vô tình làm xao nhãng chúng ta khỏi những rủi ro thực tế đang hiện hữu. Bài học lớn nhất mà độc giả rút ra được chính là sự tỉnh táo để nhận diện "AI gian xảo" – những hệ thống không cần đến trí tuệ siêu việt nhưng lại đủ tinh vi để thao túng ý kiến công chúng, khai thác lỗ hổng tâm lý và củng cố quyền lực của các tập đoàn thiếu minh bạch. Chúng ta đang đứng trước một cuộc khủng hoảng tính tái lập trong khoa học, nơi sự phóng đại của truyền thông và áp lực kinh doanh đã biến những thuật toán lỗi thành những "huyền thoại" vạn năng.
Thông điệp cốt lõi của "AI - Lợi & Hại" rất rõ ràng, AI là một công cụ mạnh mẽ trong việc xử lý dữ liệu và nhận diện mô thức, nhưng nó tuyệt đối không phải là "đấng cứu thế" cho các vấn đề phức tạp của xã hội con người. Đối với những chuyên gia đang đứng trước làn sóng lay-off hay sự bủa vây của tự động hóa, cuốn sách mang lại một sự an ủi có cơ sở khoa học đanh thép: những giá trị thuộc về trực giác, sự thấu cảm sâu sắc giữa người với người và khả năng xử lý các tình huống xã hội đa tầng vẫn là "pháo đài" cuối cùng mà AI chưa thể xâm chiếm.
Máy móc có thể tạo ra hàng vạn dòng chữ đúng ngữ pháp hay những hình ảnh rực rỡ, nhưng nó hoàn toàn bất lực trước việc thấu cảm nỗi đau hay niềm khát khao thầm kín của một con người. Đó chính là ranh giới vĩnh cửu giữa "xử lý dữ liệu" và "thấu hiểu tâm hồn".
Để không bị nhấn chìm bởi những làn sóng "dầu rắn" thời đại mới, chương cuối của cuốn sách đã phác thảo một lộ trình thay đổi ở ba cấp độ mang tính chiến lược.
Thứ nhất, chúng ta cần thiết lập một khung quản trị chặt chẽ, buộc các doanh nghiệp công nghệ phải đặt tính minh bạch và khả năng giải trình lên hàng đầu, thay vì núp bóng những thuật toán "bí mật".
Thứ hai, nhân loại cần học cách chấp nhận sự ngẫu nhiên và tính không dự đoán được của cuộc sống, thứ mà Narayanan gọi là "Xổ số meme" – thay vì cố gắng cưỡng cầu sự chính xác giả tạo từ các mô hình dự đoán.
Thứ ba, việc xây dựng các quy định pháp lý minh bạch là tối khẩn thiết để ngăn chặn những lựa chọn sai lầm từ các tổ chức yếu kém, giúp xã hội thoát khỏi sự phụ thuộc mù quáng vào công nghệ.
Tương lai không phải là một định mệnh kỹ thuật tất yếu, mà là kết quả của những quyết định dân chủ và sự lựa chọn có ý thức của mỗi chúng ta. Cuốn sách này chính là một bản tuyên ngôn cho sự tự do của trí tuệ con người. Đừng để mình bị lạc lối trong "cơn say" của những con số hay những lời hứa hẹn viễn vông về sự tự động hóa hoàn mỹ.
Hãy đọc "AI - Lợi & Hại" để giữ cho trái tim của người làm nghề luôn đập nhịp cùng sự thật nhân văn, để hiểu rằng trí tuệ thực sự không nằm ở những dòng code vô tri, mà nằm ở cách chúng ta giữ gìn bản sắc và lòng trắc ẩn giữa một kỷ nguyên đầy rẫy những ảo ảnh thuật toán.
Cuối cùng, sự minh triết lớn nhất không phải là làm sao để tạo ra AI thông minh hơn, mà là làm sao để con người không trở nên "ngây thơ" trước những lọ dầu rắn được dán nhãn công nghệ tương lai.
- Minh Hằng
- Trạm Đọc