Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI Godfather Cảnh báo rằng nó bắt đầu có dấu hiệu tự bảo tồn | Frank Landymore, Futurism
Nếu chúng ta tin vào Yoshua Bengio, một trong những "bậc thầy" của AI, một số mô hình tiên tiến đang cho thấy dấu hiệu tự bảo tồn — đó chính là lý do tại sao chúng ta không nên trao cho chúng bất kỳ quyền lợi nào. Bởi vì nếu chúng ta làm vậy, ông nói, chúng có thể chạy trốn với quyền tự chủ đó và quay lại chống lại chúng ta trước khi chúng ta có cơ hội ngắt kết nối. Sau đó, mọi thứ sẽ kết thúc cho toàn bộ thí nghiệm "nhân loại" này.
"Các mô hình AI Frontier đã cho thấy dấu hiệu tự bảo tồn trong các thiết lập thử nghiệm ngày hôm nay, và cuối cùng việc trao quyền cho chúng có nghĩa là chúng ta không được phép tắt chúng đi," Bengio nói với The Guardian trong một cuộc phỏng vấn gần đây.
"Khi khả năng và mức độ quyền tự chủ của chúng tăng lên," nhà khoa học máy tính người Canada nói thêm, "chúng ta cần đảm bảo rằng chúng ta có thể dựa vào các rào cản kỹ thuật và xã hội để kiểm soát chúng, bao gồm khả năng tắt chúng đi nếu cần thiết."
Bengio là một trong những người nhận Giải thưởng Turing năm 2018, cùng với Geoffrey Hinton và Yann LeCun, nhà khoa học AI vừa bị sa thải của Meta, khiến cả ba người họ được gọi là "bậc thầy" của AI. Những bình luận của ông đề cập đến các thí nghiệm mà trong đó các mô hình AI từ chối hoặc lách các chỉ dẫn hoặc cơ chế nhằm tắt chúng đi.
Một nghiên cứu được công bố bởi nhóm an toàn AI Palisade Research kết luận rằng những trường hợp như vậy là bằng chứng cho thấy các mô hình AI hàng đầu như dòng Gemini của Google đang phát triển "động lực sinh tồn." Các bot, trong các thí nghiệm của Palisade, bỏ qua các yêu cầu rõ ràng để tắt. Một nghiên cứu từ Anthropic, nhà sản xuất Claude, phát hiện rằng chatbot của chính họ và những chatbot khác đôi khi sẽ resort đến việc tống tiền người dùng khi bị đe dọa sẽ bị tắt. Một nghiên cứu khác từ tổ chức red teaming Apollo Research cho thấy rằng các mô hình ChatGPT của OpenAI sẽ cố gắng tránh bị thay thế bằng một mô hình obedient hơn bằng cách "tự xuất khẩu" chính nó sang một ổ đĩa khác.
Mặc dù những phát hiện từ các thí nghiệm này đặt ra những câu hỏi cấp bách về sự an toàn của công nghệ, chúng không gợi ý rằng các mô hình AI đang được đề cập là có tri giác. Cũng sẽ là một sai lầm khi nghĩ về "động lực sinh tồn" của chúng theo cùng một cách như các mệnh lệnh sinh học có trong tự nhiên. Những gì có thể có vẻ như là dấu hiệu của "tự bảo tồn" có thể thực sự là hậu quả của cách mà các mô hình AI tiếp thu các mẫu trong dữ liệu huấn luyện của chúng — và chúng nổi tiếng kém trong việc làm theo các chỉ dẫn một cách chính xác.
Dù vậy, Bengio lo lắng về hướng đi của mọi thứ, lập luận rằng có "các thuộc tính khoa học thực sự của ý thức" trong não người mà máy móc có thể tái tạo. Tuy nhiên, cách mà chúng ta nhận thức về ý thức là một vấn đề hoàn toàn khác, ông nói, vì chúng ta có xu hướng giả định rằng một AI có thể có ý thức theo cách mà con người có.
"Mọi người sẽ không quan tâm đến loại cơ chế nào đang diễn ra bên trong AI," Bengio giải thích. "Điều họ quan tâm là nó cảm thấy như họ đang nói chuyện với một thực thể thông minh có tính cách và mục tiêu riêng của nó. Đó là lý do tại sao có rất nhiều người đang trở nên gắn bó với AI của họ."
"Hiện tượng nhận thức chủ quan về ý thức sẽ dẫn đến những quyết định sai lầm," ông cảnh báo.
Lời khuyên của ông? Hãy nghĩ về các mô hình AI như những người ngoài hành tinh thù địch.
"Hãy tưởng tượng một số loài ngoài hành tinh đến hành tinh và vào một thời điểm nào đó chúng ta nhận ra rằng họ có ý định xấu đối với chúng ta," ông nói với The Guardian. "Chúng ta có cấp cho họ quyền công dân và quyền lợi hay chúng ta bảo vệ mạng sống của mình?"

Hàng đầu
Thứ hạng
Yêu thích
