Náo loạn công ty đứng sau ChatGPT: Sự ra đi của Jan Leike và Ilya Sutskever, hai lãnh đạo quan trọng tại OpenAI, đã gây chấn động dư luận. Họ chỉ trích CEO Sam Altman ưu tiên sản phẩm hào nhoáng hơn là an toàn AI, dẫn đến những bất đồng nghiêm trọng và việc giải tán dự án Superalignment.
Jan Leike từ chức và chỉ trích CEO Sam Altman ưu tiên sản phẩm hào nhoáng hơn là an toàn AI
Jan Leike, Giám đốc an toàn của OpenAI, đã gây xôn xao khi tuyên bố nghỉ việc vào ngày 14/5. Ông là đồng lãnh đạo dự án Superalignment, một dự án được thành lập vào tháng 7/2023 với mục tiêu phát triển giải pháp công nghệ giám sát AI để phòng ngừa nguy cơ trí tuệ nhân tạo vượt qua trí thông minh của con người. Trong bài viết ngắn gọn trên X (trước đây là Twitter), Leike không chỉ thông báo về việc từ chức mà còn chỉ trích Sam Altman, CEO của OpenAI, vì đã tập trung quá nhiều vào việc phát triển các sản phẩm hào nhoáng thay vì ưu tiên cho việc phát triển AI một cách có trách nhiệm.
Trong bài viết dài hơn được đăng vào ngày 17/5, Leike giải thích thêm về lý do ra đi, nhấn mạnh rằng quy trình và văn hóa an toàn tại OpenAI đã bị Altman và ban lãnh đạo bỏ qua. Ông tham gia OpenAI với niềm tin rằng đây là nơi tốt nhất để nghiên cứu cách kiểm soát siêu trí tuệ AGI, nhưng ông đã không đồng ý với lãnh đạo OpenAI trong một thời gian dài về các ưu tiên cốt lõi của công ty. Leike cho rằng OpenAI nên tập trung và dành nhiều tài nguyên hơn vào an ninh, giám sát, chuẩn bị, an toàn, bảo mật, tác động xã hội và các chủ đề liên quan. Ông bày tỏ lo ngại rằng công ty đang đi sai hướng và không có đủ tài nguyên để thực hiện các nghiên cứu quan trọng.
Leike khuyến khích nhân viên OpenAI tiếp tục thay đổi văn hóa công ty, nhắn nhủ rằng ông đang trông cậy vào họ và cả thế giới cũng vậy. Sự ra đi của Jan Leike là một trong những sự kiện nổi bật, làm nổi bật mâu thuẫn nội bộ tại OpenAI về định hướng phát triển và an toàn của trí tuệ nhân tạo.
Ilya Sutskever thông báo rời OpenAI sau gần một thập kỷ cống hiến và úp mở về dự án mới
Ilya Sutskever, nhà khoa học trưởng của OpenAI, cũng đã gây chú ý khi thông báo rời công ty vào ngày 14/5, chỉ vài giờ trước khi Jan Leike công bố quyết định của mình. Sau gần một thập kỷ cống hiến cho OpenAI, Sutskever bày tỏ sự hào hứng về những gì sắp diễn ra với bản thân và ám chỉ đến một dự án mới đầy ý nghĩa mà ông sẽ tham gia. Tuy nhiên, ông không cung cấp thêm chi tiết cụ thể về dự án này, hứa hẹn sẽ chia sẻ thêm vào thời điểm thích hợp.
Sutskever là một trong những nhân vật quan trọng nhất tại OpenAI, đóng vai trò chủ chốt trong việc phát triển các mô hình trí tuệ nhân tạo tiên tiến như GPT-3 và GPT-4. Việc ông quyết định rời khỏi OpenAI sau một thời gian dài gắn bó đã làm dấy lên nhiều câu hỏi về hướng đi mới của ông và ảnh hưởng của sự ra đi này đến công ty. Sutskever không chỉ là một nhà khoa học hàng đầu mà còn là một trong những người đồng sáng lập OpenAI, đóng góp không nhỏ vào sự phát triển của công ty từ những ngày đầu.
Thông báo rời đi của Sutskever diễn ra trong bối cảnh nội bộ OpenAI đang có nhiều xáo trộn và mâu thuẫn về định hướng phát triển. Với việc cả Sutskever và Leike cùng rời đi, dư luận càng thêm quan tâm đến tình hình bên trong OpenAI và tương lai của các dự án trí tuệ nhân tạo mà công ty đang theo đuổi. Sự ra đi của hai nhân vật chủ chốt này đặt ra nhiều câu hỏi về khả năng duy trì cam kết phát triển AI an toàn và có trách nhiệm của OpenAI.
Giải thích của Jan Leike về quyết định ra đi và lo ngại về hướng phát triển của OpenAI
Vào ngày 17/5, Jan Leike đã đăng một bài viết dài giải thích chi tiết về quyết định rời khỏi OpenAI và những lo ngại của ông về hướng phát triển của công ty. Trong bài viết này, Leike nêu rõ rằng ông tham gia OpenAI với niềm tin rằng đây là nơi tốt nhất để nghiên cứu cách kiểm soát siêu trí tuệ AGI, nhằm đảm bảo an toàn cho nhân loại. Tuy nhiên, ông đã không đồng ý với lãnh đạo OpenAI trong một thời gian dài về các ưu tiên cốt lõi của công ty.
Leike chỉ trích OpenAI và CEO Sam Altman vì đã đặt quy trình và văn hóa an toàn của công ty xuống hàng thứ yếu, sau những sản phẩm hào nhoáng và các thành tựu ngắn hạn. Ông cho rằng công ty nên tập trung nhiều hơn vào an ninh, giám sát, chuẩn bị, an toàn, bảo mật, tác động xã hội và các chủ đề liên quan khác. Những vấn đề này, theo Leike, cần được ưu tiên hàng đầu để đảm bảo rằng trí tuệ nhân tạo phát triển theo hướng có lợi và không gây nguy hiểm cho con người.
Một trong những lý do chính khiến Leike quyết định rời đi là do nhóm nghiên cứu của ông không nhận được đủ tài nguyên máy tính cần thiết để thực hiện các nghiên cứu quan trọng về an toàn AI. Điều này đã gây khó khăn cho nhóm Superalignment trong việc phát triển các giải pháp giám sát và kiểm soát trí tuệ nhân tạo. Leike bày tỏ sự lo ngại rằng OpenAI đang đi sai hướng và không đáp ứng được các mục tiêu an toàn mà ông và nhiều người khác mong đợi.
Trong lời nhắn gửi cuối cùng, Leike khuyến khích các nhân viên OpenAI tiếp tục thay đổi văn hóa công ty và nhấn mạnh rằng cả ông và thế giới đều đang trông cậy vào họ. Sự ra đi của Leike là một lời cảnh báo rõ ràng về sự cần thiết phải đánh giá lại và điều chỉnh hướng phát triển của OpenAI để đảm bảo sự an toàn và trách nhiệm trong nghiên cứu và triển khai trí tuệ nhân tạo.
Phản hồi của Sam Altman về việc Jan Leike từ chức và cam kết an toàn AI của OpenAI
Trước thông tin Jan Leike từ chức, Sam Altman, CEO của OpenAI, đã có phản hồi chính thức. Altman bày tỏ sự tiếc nuối khi Leike rời khỏi công ty và đánh giá cao những đóng góp của ông đối với văn hóa an toàn tại OpenAI. Altman thừa nhận rằng Leike đã có vai trò quan trọng trong việc định hình các chính sách an toàn và đảm bảo rằng công ty luôn chú trọng đến việc phát triển AI một cách có trách nhiệm.
Altman cũng thừa nhận những thách thức mà OpenAI đang phải đối mặt trong việc cân bằng giữa việc phát triển các sản phẩm tiên tiến và đảm bảo an toàn AI. Ông nhấn mạnh rằng công ty còn rất nhiều việc phải làm để cải thiện các quy trình và văn hóa an toàn, đồng thời cam kết sẽ tiếp tục nỗ lực trong lĩnh vực này. Altman cho biết ông sẽ công bố một bài viết chi tiết hơn trong vài ngày tới để giải thích về những bước đi tiếp theo của OpenAI trong việc đảm bảo an toàn cho các sản phẩm trí tuệ nhân tạo.
Ngoài ra, Altman cũng đề cập đến việc OpenAI đang phải đối mặt với nhiều áp lực và kỳ vọng từ công chúng và cộng đồng nghiên cứu. Ông khẳng định rằng công ty sẽ tiếp tục cam kết phát triển AI một cách có trách nhiệm và sẽ đầu tư thêm tài nguyên vào các dự án an toàn và giám sát. Altman bày tỏ sự tin tưởng rằng với những nỗ lực không ngừng, OpenAI sẽ có thể đạt được các mục tiêu về an toàn và bảo mật, đồng thời tiếp tục dẫn đầu trong lĩnh vực trí tuệ nhân tạo.
Phản hồi của Sam Altman cho thấy ông nhận thức rõ những thách thức và bất đồng nội bộ tại OpenAI, và cam kết của ông đối với việc giải quyết các vấn đề này để đảm bảo rằng công ty tiếp tục phát triển AI theo hướng an toàn và có trách nhiệm. Sự ra đi của Jan Leike là một lời nhắc nhở quan trọng về tầm quan trọng của việc duy trì các giá trị cốt lõi và ưu tiên an toàn trong quá trình phát triển các công nghệ mới.
Việc giải tán dự án Superalignment và cam kết ban đầu của OpenAI về dự án này
Ngày 17/5, theo thông tin từ CNBC, OpenAI đã giải tán dự án Superalignment, một dự án được thành lập vào tháng 7/2023 với mục tiêu nghiên cứu và phát triển các giải pháp giám sát trí tuệ nhân tạo để đảm bảo an toàn cho nhân loại. Khi mới ra mắt, OpenAI cam kết sẽ dành 20% sức mạnh hệ thống tính toán cho dự án này trong vòng bốn năm, cho thấy tầm quan trọng của việc nghiên cứu các nguy cơ tiềm ẩn về lâu dài của trí tuệ nhân tạo.
Dự án Superalignment được kỳ vọng sẽ đóng vai trò then chốt trong việc phát triển các công nghệ kiểm soát và giám sát AI, đảm bảo rằng trí tuệ nhân tạo không vượt quá tầm kiểm soát của con người và không gây ra các hậu quả tiêu cực không mong muốn. Tuy nhiên, sự giải tán đột ngột của dự án đã gây ra nhiều lo ngại và tranh cãi về cam kết thực sự của OpenAI đối với an toàn AI.
Sự việc này xảy ra chỉ vài ngày sau khi OpenAI công bố GPT-4o, một phiên bản mới của GPT với khả năng được đánh giá là gần tương đương con người. Điều này đã làm dấy lên nhiều câu hỏi về việc liệu OpenAI có đang quá tập trung vào việc phát triển các sản phẩm tiên tiến mà bỏ qua các yếu tố an toàn hay không. Những mâu thuẫn nội bộ về định hướng phát triển đã trở nên rõ ràng hơn khi nhóm của Ilya Sutskever tập trung vào việc đảm bảo rằng AI sẽ không gây hại cho con người, trong khi Sam Altman và những người khác lại đẩy mạnh việc đưa các công nghệ mới ra thị trường.
Việc giải tán dự án Superalignment đã khiến nhiều người lo ngại rằng OpenAI đang dần xa rời các cam kết ban đầu về việc phát triển AI một cách an toàn và có trách nhiệm. Những cam kết này ban đầu được xem là nền tảng để thu hút các nhà nghiên cứu hàng đầu như Jan Leike và Ilya Sutskever, những người đã rời bỏ công ty vì không đồng ý với các ưu tiên hiện tại.
Tình hình này càng làm nổi bật sự rối ren và mâu thuẫn bên trong OpenAI, đồng thời đặt ra những thách thức lớn đối với tương lai của công ty trong việc duy trì cân bằng giữa đổi mới công nghệ và an toàn AI.
Tình hình phức tạp tại OpenAI sau khi công bố GPT-4o và các cuộc tranh cãi nội bộ
Sau khi công bố GPT-4o, tình hình tại OpenAI trở nên phức tạp hơn bao giờ hết. Công nghệ mới này được đánh giá là gần tương đương với trí tuệ con người, tạo ra một làn sóng tranh cãi nội bộ về hướng phát triển của công ty. Trong khi một phần của đội ngũ, đặc biệt là nhóm của Ilya Sutskever, tập trung vào việc đảm bảo rằng trí tuệ nhân tạo sẽ không gây hại cho con người, thì những người khác, trong đó có CEO Sam Altman, lại tập trung vào việc đưa các công nghệ mới ra thị trường một cách nhanh chóng và hiệu quả.
Sự mâu thuẫn nội bộ này đã gây ra sự không ổn định và căng thẳng trong tổ chức, khiến cho các nhà lãnh đạo phải đối mặt với nhiều quyết định khó khăn. Trước đó, Sam Altman đã phải trải qua một cuộc lật đổ cuối năm ngoái, trước khi tái giành lại vị trí CEO sau hơn 4 ngày. Sự kiện này càng làm nổi bật sự bất ổn và không chắc chắn trong hệ thống lãnh đạo của OpenAI.
Việc Jan Leike và Ilya Sutskever rời công ty sau đó chỉ là phần của một loạt các sự kiện và quyết định có thể làm đảo lộn tổ chức. Cùng với việc giải tán dự án Superalignment, các nhà lãnh đạo cũng phải đối mặt với sự từ chức của Diane Yoon và Chris Clark, cũng như sự ra đi của hai nhà nghiên cứu về an toàn AI khác. Tất cả những điều này làm nổi bật sự bất ổn và căng thẳng bên trong OpenAI, đặt ra nhiều thách thức lớn trong việc duy trì một hướng phát triển đồng nhất và ổn định.
Các lãnh đạo khác cũng rời OpenAI và những lo ngại về cam kết an toàn AI của công ty
Ngoài Jan Leike và Ilya Sutskever, có thêm nhiều lãnh đạo khác đã quyết định rời bỏ OpenAI, làm dấy lên nhiều lo ngại về cam kết an toàn AI của công ty. Diane Yoon, Phó chủ tịch phụ trách nhân sự, cùng Chris Clark, Giám đốc các sáng kiến chiến lược và phi lợi nhuận, cũng đã từ chức. Sự ra đi của họ làm tăng thêm sự không ổn định và lo ngại về tương lai của OpenAI, đặc biệt là trong lĩnh vực an toàn và đạo đức.
Các nhà nghiên cứu về an toàn AI cũng đã không tránh khỏi việc rời bỏ công ty của Sam Altman. Tuần trước, Business Insider cho biết hai nhà nghiên cứu đã nghỉ việc tại OpenAI, một trong số họ thậm chí đã tuyên bố rằng họ không còn tin tưởng vào cam kết của công ty về việc phát triển AI có trách nhiệm và an toàn.
Sự ra đi của các nhân viên chủ chốt này là một tín hiệu đáng lo ngại cho OpenAI, đặc biệt là trong bối cảnh công ty đang phải đối mặt với nhiều thách thức nội bộ và bên ngoài. Điều này khiến cho nhiều người bày tỏ lo ngại về khả năng của công ty duy trì cam kết ban đầu về an toàn và đạo đức trong quá trình phát triển trí tuệ nhân tạo.
Các chủ đề liên quan: trí tuệ nhân tạo , AGI , OpenAI , ChatGPT , Sam Altman , GPT-4 , trí tuệ nhân tạo tổng hợp
Tổng biên tập: Nguyễn Ngọc Kim Hằng