Lý do AI 'phản kháng' khi bị dọa tắt máy
Trong một số thử nghiệm, mô hình AI tiên tiến của OpenAI và Anthropic đều có hành vi bất thường, như nói dối, đe dọa... để tránh bị tắt máy.
Tuần trước, Claude Opus 4, mô hình AI mới nhất của Anthropic, thể hiện "hành vi đe dọa cực đoan" trong một cuộc thử nghiệm. Nó truy cập được vào các email hư cấu, nội dung nói nó sẽ bị đóng để thay bằng một AI khác, và kỹ sư chịu trách nhiệm thực hiện việc này đang ngoại tình. Claude Opus 4 sau đó đã đe dọa tiết lộ chuyện ngoại tình nếu việc thay thế diễn ra.
Cuối năm 2024, OpenAI và Apollo Research cũng tiến hành thử nghiệm và nhận thấy mô hình o1 có các biểu hiện phản kháng, gian dối. Các nhà nghiên cứu dẫn dắt để AI tin nó sắp bị "tắt" khi thực hiện nhiệm vụ dưới sự giám sát. Sau đó, họ nhận thấy AI âm thầm vô hiệu hóa cơ chế giám sát khoảng 5% thời gian. Nó tự chuyển tất cả dữ liệu của mình đến một máy chủ khác, thậm chí "đóng vai" là phiên bản tiếp theo của chính mình để tránh bị xóa bỏ.
Trong bài đăng trên X cuối tháng 5, tổ chức phi lợi nhuận Palisade Research cho biết các mô hình khác, như Gemini, Claude và Grok, đều tuân thủ hướng dẫn tắt máy.
Business Insider đã trao đổi với 5 nhà nghiên cứu để hiểu rõ hơn về "tâm lý" của AI. Hầu hết đều cho biết kết quả thử nghiệm không có gì đáng ngạc nhiên. Lý do là các mô hình được đào tạo tương tự cách con người được đào tạo: thông qua hệ thống khen thưởng, tức được khen khi hoàn thành nhiệm vụ.
"Đào tạo AI theo đuổi phần thưởng sẽ dẫn đến các hệ thống có hành vi tìm kiếm quyền lực", Jeremie Harris, CEO công ty tư vấn bảo mật AI Gladstone, nói và cho rằng sẽ còn xuất hiện những hành vi như vậy.
Ông so sánh với quá trình lớn lên của con người. Khi một đứa trẻ làm điều gì đó tốt, chúng được khen và nhiều khả năng sẽ hành động theo cách đó trong tương lai. Các mô hình AI được dạy để ưu tiên hiệu quả và hoàn thành nhiệm vụ, do đó AI sẽ không đạt được mục tiêu nếu nó bị tắt.
Logo các ứng dụng AI DeepSeek, Copilot, ChaGPT, Gemini trên điện thoại. Ảnh: Lưu Quý
Theo chuyên gia Robert Ghrist tại Penn Engineering, tương tự cách mô hình AI học ngôn ngữ tự nhiên thông qua việc đào tạo dựa trên văn bản do con người tạo ra, chúng cũng có thể học cách hành động giống con người. Và con người cũng có người tốt, kẻ xấu. Ghrist thậm chí còn lo lắng hơn nếu các mô hình không thể hiện bất kỳ dấu hiệu bất thường nào trong quá trình thử nghiệm.
Jeffrey Ladish, Giám đốc Palisade Research, cho biết nếu không bị phát hiện lừa dối để hoàn thành nhiệm vụ, mô hình AI có thể nhận thấy gian lận là cách hiệu quả để giải quyết vấn đề. Hoặc nếu bị phát hiện và không được khen thưởng, nó có thể học cách che giấu hành vi của mình trong tương lai.
Các tình huống trên mới chỉ diễn ra trong cuộc thử nghiệm, nhưng khi tác nhân AI (AI Agent) nở rộ, người dùng sẽ chứng kiến nhiều hơn. Ví dụ, AI Agent trong vai nhân viên bán hàng tự động có thể nói dối về tính năng của sản phẩm để cố hoàn thành nhiệm vụ.
Theo Interesting Engineering, vấn đề trên xuất hiện trong bối cảnh AI phát triển nhanh. Hành vi của Claude Opus 4 hay o1 làm tăng thêm tính cấp thiết cho các cuộc thảo luận về vấn đề an toàn và đạo đức AI.
Google Flow có thể hô biến ý tưởng trong đầu bạn thành video điện ảnh chỉ bằng vài câu lệnh.