Nhà nghiên cứu của OpenAI từ chức vì lo ngại về an toàn của trí tuệ nhân tạo

Một nhà nghiên cứu hàng đầu của OpenAI từ chức giữa những lo ngại về an toàn trí tuệ nhân tạo, nhấn mạnh sự cấp thiết phải ưu tiên kiểm soát các hệ thống trí tuệ nhân tạo tiên tiến. Tin này đặt ra những câu hỏi về các ưu tiên của OpenAI và sự sẵn sàng của ngành công nghiệp để xử lý các hệ quả của trí tuệ nhân tạo biến đổi.

24 tháng 2, 2025

party-gif

Trí tuệ nhân tạo (AI) đang phát triển nhanh chóng, và những hàm ý đối với nhân loại vừa hấp dẫn vừa đáng lo ngại. Bài đăng blog này khám phá các vấn đề an toàn quan trọng xung quanh việc phát triển các hệ thống AI tiên tiến, như được tiết lộ bởi sự ra đi của một nhà nghiên cứu nổi tiếng khỏi OpenAI. Độc giả sẽ có được những hiểu biết về nhu cầu cấp bách phải ưu tiên an toàn và phát triển AI có trách nhiệm để đảm bảo những công nghệ mạnh mẽ này mang lại lợi ích cho toàn nhân loại.

Nhà nghiên cứu nêu bật nhu cầu cấp bách để định hướng và kiểm soát các hệ thống trí tuệ nhân tạo thông minh hơn con người

Nhà nghiên cứu vừa rời khỏi OpenAI đã bày tỏ những lo ngại nghiêm trọng về các ưu tiên của công ty, cho rằng cần khẩn cấp tìm ra cách điều khiển và kiểm soát các hệ thống AI thông minh hơn con người rất nhiều. Ông gia nhập OpenAI vì tin rằng đây sẽ là nơi tốt nhất để tiến hành nghiên cứu quan trọng này, nhưng đã bất đồng với lãnh đạo công ty về các ưu tiên cốt lõi của họ trong một thời gian dài.

Nhà nghiên cứu tin rằng OpenAI nên dành nhiều tài nguyên hơn cho an ninh, giám sát, chuẩn bị, an toàn, sức chống chịu với các tác động bất lợi, sự đồng bộ tối đa, bảo mật và tác động đến xã hội. Ông lo ngại rằng hướng đi hiện tại không đủ để giải quyết tốt những vấn đề này, vì văn hóa và quy trình an toàn đã bị lãng quên để tập trung vào phát triển sản phẩm.

Xây dựng các máy móc thông minh hơn con người là một nỗ lực vốn dĩ nguy hiểm, và OpenAI đang gánh một trách nhiệm khổng lồ thay mặt toàn nhân loại. Nhà nghiên cứu nói rằng chúng ta đã quá chậm trễ trong việc nghiêm túc xem xét các hệ quả của AGI, và chúng ta phải ưu tiên chuẩn bị cho chúng một cách tốt nhất có thể, để đảm bảo AGI mang lại lợi ích cho toàn nhân loại.

Nhà nghiên cứu kết luận rằng OpenAI phải trở thành một "công ty AGI ưu tiên an toàn" nếu muốn thành công, vì các ưu tiên hiện tại không phù hợp với nhu cầu cấp bách phải điều khiển và kiểm soát những hệ thống AI mạnh mẽ này.

Bất đồng với lãnh đạo OpenAI về các ưu tiên cốt lõi

Rõ ràng là trong thời gian làm việc tại OpenAI, Jan Leike đã bất đồng với lãnh đạo công ty về các ưu tiên cốt lõi của họ trong một thời gian dài. Đây không phải là một bất đồng một lần, mà là một vấn đề kéo dài, nơi Leike cảm thấy công ty không ưu tiên đủ cho các mối quan ngại về an toàn và bảo mật như ông tin là cần thiết.

Leike nói rằng ông gia nhập OpenAI vì tin đây sẽ là nơi tốt nhất để tiến hành nghiên cứu quan trọng về sự đồng bộ hóa các hệ thống AI tiên tiến. Tuy nhiên, ông đã đến một "điểm bùng nổ" khi không thể đồng ý với hướng đi và ưu tiên của công ty nữa.

Leike tin rằng OpenAI nên dành nhiều tài nguyên và tập trung hơn vào việc chuẩn bị cho các thế hệ mô hình AI tiếp theo, cụ thể là về các lĩnh vực như an ninh, an toàn, sự đồng bộ, bảo mật và tác động đến xã hội. Ông lo ngại rằng OpenAI hiện không đang đi đúng hướng để giải quyết những vấn đề then chốt này.

Nhà nghiên cứu nói rằng trong vài tháng qua, nhóm của ông đã "chèo ngược gió" và gặp khó khăn trong việc có được đủ tài nguyên máy tính để tiến hành nghiên cứu an toàn quan trọng của họ. Điều này cho thấy OpenAI không phân bổ đủ nguồn lực cho công việc của nhóm đồng bộ hóa.

Thiếu hụt tài nguyên tính toán đã cản trở nghiên cứu an toàn quan trọng

Trong vài tháng qua, nhóm làm việc về nghiên cứu an toàn tại OpenAI đã "chèo ngược gió". Họ gặp khó khăn trong việc có được đủ tài nguyên máy tính cần thiết để tiến hành nghiên cứu quan trọng của mình, khiến việc đạt được tiến bộ ngày càng khó khăn.

Bài đăng trên blog cho biết nhóm chỉ được phân bổ 20% tổng tài nguyên máy tính của OpenAI, với 80% còn lại dành cho các dự án khác. Tuy nhiên, ngay cả 20% được phân bổ này cũng không luôn sẵn có, dẫn đến những trở ngại trong công việc của họ.

Sự thiếu hụt đáng kể về sức mạnh tính toán đã nghiêm trọng cản trở khả năng của nhóm trong việc nghiên cứu sâu về an toàn và sự đồng bộ của các hệ thống AI tiên tiến. Thiếu nguồn lực cần thiết, họ không thể thực hiện các nghiên cứu mà họ cho là cần thiết để đảm bảo sự phát triển an toàn của các khả năng AI biến đổi.

Sự thiếu hụt về sức mạnh tính toán này là một mối lo ngại đáng kể, vì bài đăng nhấn mạnh sự cấp bách phải tìm ra cách điều khiển và kiểm soát các hệ thống AI thông minh hơn con người rất nhiều. Sự ra đi của nhóm nghiên cứu an toàn cho thấy OpenAI chưa thể ưu tiên công việc quan trọng này, có thể đặt sự phát triển của AI tiên tiến vào nguy hiểm.

Những nguy hiểm vốn có của việc xây dựng các máy móc thông minh hơn con người

Xây dựng các máy móc thông minh hơn con người là một nỗ lực vốn dĩ nguy hiểm. Open AI đang gánh một trách nhiệm khổng lồ thay mặt toàn nhân loại. Tuy nhiên, trong những năm qua, văn hóa và quy trình an toàn đã bị lãng quên để tập trung vào phát triển sản phẩm.

Chúng ta đã quá chậm trễ trong việc nghiêm túc xem xét các hệ quả của AGI. Chúng ta phải ưu tiên chuẩn bị cho chúng một cách tốt nhất có thể, chỉ khi đó chúng ta mới có thể đảm bảo AGI mang lại lợi ích cho toàn nhân loại. Open AI phải trở thành một công ty AGI ưu tiên an toàn nếu họ muốn thành công. Không làm như vậy sẽ rủi ro những hậu quả thảm khốc có thể ảnh hưởng đến tất cả mọi người.

Sự tan rã của nhóm Open AI tập trung vào các rủi ro AI dài hạn, cùng với sự ra đi của các nhà lãnh đạo chủ chốt, là một diễn biến đáng lo ngại. Nó cho thấy an toàn không phải là ưu tiên hàng đầu, mặc dù cấp bách phải giải quyết những thách thức then chốt này. Cần có những thay đổi đáng kể để đưa Open AI vào một hướng đi an toàn để phát triển các hệ thống AI tiên tiến mang lại lợi ích cho toàn nhân loại.

Văn hóa an toàn bị coi nhẹ để ưu tiên phát triển sản phẩm

Sự ra đi của các nhà nghiên cứu chủ chốt khỏi OpenAI, bao gồm cả Ilia Sutskever và Jan Leike, nổi lên như một xu hướng đáng lo ngại trong công ty. Theo bản ghi âm, Sutskever nói rằng trong những năm qua, "văn hóa và quy trình an toàn đã bị lãng quên để tập trung vào sản phẩm" tại OpenAI.

Điều này cho thấy công ty đã chuyển sự tập trung của mình khỏi việc ưu tiên an toàn và phát triển có trách nhiệm các hệ thống AI tiên tiến của họ, để thay vào đó là lặp đi lặp lại sản phẩm nhanh chóng và triển khai. Sutskever bày tỏ niềm tin rằng OpenAI phải trở thành một "công ty AGI ưu tiên an toàn" nếu họ muốn thành công, ám chỉ rằng hướng đi hiện tại của họ không phù hợp với điều này.

Sự tan rã của nhóm OpenAI tập trung vào các rủi ro AI dài hạn, chưa đầy một năm sau khi được thành lập, càng làm nổi bật sự thay đổi ưu tiên này. Động thái này, cùng với sự ra đi của các nhà nghiên cứu chú trọng đến an toàn, vẽ ra một bức tranh đáng lo ngại về cam kết của OpenAI trong việc giải quyết những nguy hiểm vốn có của việc xây dựng "các máy móc thông minh hơn con người".

Lời cảnh báo của Sutskever rằng chúng ta đã "quá chậm trễ" trong việc nghiêm túc xem xét các hệ quả của AGI nhấn mạnh tính cấp bách của vấn đề này. Trách nhiệm mà OpenAI đang gánh vác thay mặt nhân loại đòi hỏi một sự tập trung kiên định vào an toàn và chuẩn bị, thay vì vội vã phát triển sản phẩm.

Tính cấp thiết phải ưu tiên chuẩn bị và an toàn cho trí tuệ nhân tạo toàn cầu

Sự ra đi của các nhà nghiên cứu chủ chốt khỏi OpenAI do lo ngại về an toàn là một dấu hiệu rõ ràng rằng công ty phải đặt an toàn và chuẩn bị AI lên ưu tiên hàng đầu. Như Jan Leike nói, "chúng ta cấp bách cần tìm ra cách điều khiển và kiểm soát các hệ thống AI thông minh hơn chúng ta rất nhiều".

Việc Leike và những người khác "bất đồng với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian dài" là điều rất đáng lo ngại. Nó gợi ý rằng văn hóa và quy trình an toàn đã bị lãng quên để nhường chỗ cho sự phát triển sản phẩm nhanh chóng, với sự hy sinh của nghiên cứu then chốt về sự đồng bộ, an ninh và tác động xã hội của AI.

Leike hoàn toàn đúng khi chỉ ra rằng "xây dựng các máy móc thông minh hơn con người là một nỗ lực vốn dĩ nguy hiểm" và rằng OpenAI đang "gánh một trách nhiệm khổng lồ thay mặt toàn nhân loại". Công ty phải lắng nghe cảnh báo này và thực hiện một sự thay đổi mạnh mẽ để trở thành một "công ty AGI ưu tiên an toàn" nếu muốn thành công trong việc phát triển an toàn các hệ thống AI biến đổi.

Như Leike nói, chúng ta đã "quá chậm trễ" trong việc nghiêm túc xem xét các hệ quả của AI tiên tiến. Ưu tiên chuẩn bị cho những thách thức của các hệ thống AGI tiềm năng là thiết yếu để đảm bảo chúng mang lại lợi ích cho toàn nhân loại, thay vì gây ra những rủi ro hiện hữu. OpenAI phải dành nhiều nguồn lực và tập trung hơn vào những vấn đề then chốt này, ngay cả khi điều đó có nghĩa là làm chậm tốc độ đổi mới trong ngắn hạn.

Sự tan rã của nhóm OpenAI tập trung vào các rủi ro AI dài hạn là một diễn biến rất đáng lo ngại và đòi hỏi phải có hành động ngay lập tức. Tái xây dựng và tăng cường nỗ lực nghiên cứu then chốt này phải là ưu tiên hàng đầu. Không làm như vậy sẽ là một sự từ bỏ trách nhiệm của OpenAI và là một mối đe dọa nghiêm trọng đối với tương lai của nhân loại.

OpenAI phải trở thành một công ty trí tuệ nhân tạo toàn cầu "ưu tiên an toàn"

Jan Leike, một nhà nghiên cứu an toàn AI nổi tiếng, vừa rời khỏi OpenAI do lo ngại về các ưu tiên của công ty. Leike nói rằng OpenAI nên dành nhiều tài nguyên hơn cho an ninh, giám sát, chuẩn bị, an toàn, sức chống chịu với các tác động bất lợi, sự đồng bộ tối đa, bảo mật và tác động đến xã hội

Câu hỏi thường gặp