Theo thông tin độc quyền từ Reuters, sự kiện bất ngờ khi Hội đồng quản trị của OpenAI quyết định sa thải Sam Altman, CEO của công ty, có nguyên nhân từ việc ông này được cho là đã đạt được tiến bộ đáng kể trong nghiên cứu về Artificial General Intelligence (AGI) - siêu trí tuệ nhân tạo. Lo ngại rằng AGI dưới sự lãnh đạo của Sam có thể tạo ra rủi ro cho tương lai của loài người, Hội đồng quản trị đã quyết định cách chức ông.
Thông tin từ nguồn thân cận với Reuters cho biết, chỉ vài ngày trước khi Sam Altman bị sa thải, một nhóm nghiên cứu tại OpenAI đã gửi một bức "mật thư" đến Hội đồng quản trị. Trong đó, họ tiết lộ rằng Sam Altman đã đạt được bước tiến quan trọng với dự án bí mật Q* (đọc là "Q star"), liên quan đến nghiên cứu AGI.
Sau khi nhận được thông tin này, Hội đồng quản trị đã tổ chức một cuộc họp khẩn cấp và quyết định sa thải CEO Sam Altman. Căn cứ cho quyết định này được cho là do quan điểm của Sam Altman về việc cho phép AI tự do phát triển không phù hợp với quan điểm thận trọng của Hội đồng, vốn lo ngại về khả năng AI có thể đe dọa sự tồn vong của loài người.
Mục tiêu tạo ra AGI - một hình thức trí tuệ nhân tạo có khả năng tự lập trình, suy luận và đưa ra quyết định mà không cần sự can thiệp của con người - đã lâu nay được xem là mục tiêu cuối cùng của các công ty nghiên cứu AI, bao gồm cả Sam Altman. Hiện tại, hầu hết các mô hình AI và máy học cần con người đặt ra yêu cầu để chúng thực hiện. Tuy nhiên, AGI, giống như trong các tác phẩm khoa học viễn tưởng, có thể tự mình đặt ra vấn đề và giải quyết chúng.
Câu hỏi đặt ra là nếu AGI có khả năng tự suy nghĩ và đưa ra quyết định mà không cần sự giám sát của con người, liệu chúng có bắt đầu tự hỏi "Tại sao mình cần phải tuân theo con người?" hay không.
Theo Reuters
Please share by clicking this button!
Visit our site and see all other available articles!