Litecoin

Giải thích một bài báo điều tra chuyên sâu của The New Yorker: Tại sao người của OpenAI tin rằng Altman không thể tin cậy được?

2026/04/07 13:43
👤ODAILY
🌐vi

Từ xác của một tổ chức phi lợi nhuận, một con bò tiền mặt đã lớn lên.

Giải thích một bài báo điều tra chuyên sâu của The New Yorker: Tại sao người của OpenAI tin rằng Altman không thể tin cậy được?

Tác giả gốc: Xiaobing, Deep Wave TechFlow

Vào mùa thu năm 2023, nhà khoa học trưởng của OpenAI Ilya Sutskever ngồi trước máy tính và hoàn thành một tài liệu dài 70 trang.

Tài liệu này được biên soạn từ bản ghi tin nhắn Slack, tệp liên lạc nhân sự và biên bản cuộc họp nội bộ để trả lời một câu hỏi: Liệu Sam Altman, người phụ trách công nghệ có lẽ là nguy hiểm nhất trong lịch sử nhân loại, có đáng tin cậy không?

Câu trả lời của Sutskever được viết ngay trên dòng đầu tiên của trang đầu tiên của tài liệu. Tiêu đề danh sách là "Sam đã thể hiện một kiểu hành vi nhất quán..."

Mục 1:Nói dối.

Hai năm rưỡi sau, hai phóng viên điều tra Ronan Farrow và Andrew Marantz đã công bố một báo cáo điều tra dài trên tờ The New Yorker. Đã phỏng vấn hơn 100 người có liên quan và thu được các bản ghi nhớ nội bộ chưa từng được công khai trước đây, cũng như hơn 200 trang ghi chú riêng do người sáng lập Anthropic Dario Amodei để lại trong thời kỳ OpenAI. Câu chuyện được các tài liệu này nêu ra còn xấu hơn nhiều so với "cuộc chiến trong cung điện" vào năm 2023: OpenAI từng bước chuyển đổi từ một tổ chức phi lợi nhuận vì sự an toàn của con người thành một cỗ máy thương mại như thế nào, với hầu hết mọi lan can bảo vệ an toàn đều bị cùng một người loại bỏ.

Kết luận của Amodei trong ghi chú đơn giản hơn: "Vấn đề của OpenAI là chính Sam."

Cài đặt "tội lỗi gốc" của OpenAI

Để hiểu tầm quan trọng của báo cáo này, trước tiên chúng ta phải giải thích OpenAI đặc biệt như thế nào.

Vào năm 2015, Altman và một nhóm tinh hoa ở Thung lũng Silicon đã làm một điều gần như chưa từng có trong lịch sử kinh doanh: Sử dụng một tổ chức phi lợi nhuận để phát triển thứ có thể là công nghệ mạnh mẽ nhất trong lịch sử loài người. Trách nhiệm của ban giám đốc được ghi rõ ràng và sự an toàn được ưu tiên hơn sự thành công của công ty, thậm chí là sự sống còn của công ty. Nói một cách thẳng thắn, nếu một ngày nào đó AI của OpenAI trở nên nguy hiểm, cá nhân ban giám đốc có nghĩa vụ phải đóng cửa công ty.

Toàn bộ kiến ​​trúc dựa trên một giả định: người phụ trách AGI phải là người cực kỳ trung thực.

Nếu đặt cược sai thì sao?

Quả bom cốt lõi của báo cáo là tài liệu dài 70 trang. Sutskever không tham gia vào chính trị công sở; ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng bị thuyết phục bởi một điều:Altman đang tiếp tục nói dối các giám đốc điều hành và hội đồng quản trị.

Một ví dụ cụ thể: Vào tháng 12 năm 2022, Altman đảm bảo tại cuộc họp hội đồng quản trị rằng nhiều tính năng của GPT-4 sắp ra mắt đã vượt qua các cuộc đánh giá bảo mật. Thành viên hội đồng Toner đã yêu cầu xem các tài liệu phê duyệt và phát hiện ra rằng hai trong số các tính năng gây tranh cãi nhất (các chỉnh sửa do người dùng xác định và triển khai trợ lý cá nhân) hoàn toàn chưa được hội đồng bảo mật phê duyệt.

Những điều còn kinh khủng hơn nữa đã xảy ra ở Ấn Độ. Một nhân viên đã báo cáo "vi phạm" với một thành viên hội đồng quản trị khác: Microsoft đã phát hành sớm phiên bản ChatGPT ở Ấn Độ mà không hoàn thành các đánh giá bảo mật cần thiết.

Sutskever cũng ghi lại một sự việc khác trong bản ghi nhớ: Altman nói với cựu CTO Mira Murati rằng quy trình phê duyệt bảo mật không quan trọng lắm và cố vấn chung của công ty đã đồng ý. Murati đến kiểm tra với tổng cố vấn, người này trả lời: "Tôi không biết Sam lấy ấn tượng đó từ đâu." Tài liệu của Sutskever giống với bản cáo trạng của công tố viên. Hơn 200 trang ghi chú mà Amodei để lại giống như cuốn nhật ký được viết bởi một nhân chứng tại hiện trường vụ án.

Trong những năm Amodei còn là người đứng đầu bộ phận bảo mật tại OpenAI, ông đã chứng kiến ​​công ty này từng bước rút lui dưới áp lực thương mại. Anh ấy đã ghi lại một chi tiết quan trọng về trường hợp đầu tư của Microsoft năm 2019 trong ghi chú của mình: Anh ấy đã chèn điều khoản “sáp nhập và hỗ trợ” vào điều lệ OpenAI, với hiệu ứng là nếu một công ty khác tìm thấy con đường AGI an toàn hơn, OpenAI nên ngừng cạnh tranh và giúp đỡ công ty đó. Đây là sự an toàn mà anh ấy coi trọng nhất trong toàn bộ thương vụ.

Khi thương vụ sắp được ký kết, Amodei phát hiện ra một điều: Microsoft có quyền phủ quyết điều khoản này. Ý nghĩa là gì? Ngay cả khi một ngày nào đó đối thủ cạnh tranh tìm ra cách tốt hơn, Microsoft có thể chặn nghĩa vụ hỗ trợ của OpenAI chỉ bằng một câu nói. Các điều khoản vẫn còn trên giấy, nhưng chúng là tờ giấy vô dụng kể từ ngày ký.

Amodei sau đó rời OpenAI và thành lập Anthropic. Điểm mấu chốt của cuộc cạnh tranh giữa hai công ty là những khác biệt cơ bản về “cách phát triển AI”.

Cam kết sức mạnh tính toán 20% đang biến mất

Có một chi tiết trong báo cáo khiến mọi người rùng mình sau khi đọc, về "Nhóm siêu liên kết" của OpenAI.

Vào giữa năm 2023, Altman đã gửi email cho một nghiên cứu sinh đang nghiên cứu về "sự liên kết lừa đảo" tại Berkeley (AI giả vờ giỏi trong việc thử nghiệm và tự làm việc của mình sau khi triển khai thực tế), nói rằng anh ấy rất lo lắng về vấn đề này và đang xem xét thành lập giải thưởng nghiên cứu toàn cầu trị giá 1 tỷ USD. Nghiên cứu sinh tiến sĩ được truyền cảm hứng đến mức anh ấy đã nghỉ học và tham gia OpenAI.

Sau đó Altman đổi ý: thay vì tham gia vào các giải thưởng bên ngoài, ông đã thành lập một "nhóm siêu liên kết" trong công ty. Công ty đã đưa ra một thông báo nổi bật rằng họ sẽ phân bổ “20% sức mạnh tính toán hiện có” cho nhóm này, với giá trị tiềm năng hơn 1 tỷ USD. Thông báo cực kỳ nghiêm túc, cho rằng nếu vấn đề liên kết không được giải quyết, AGI có thể dẫn đến "sự mất quyền lực của con người hoặc thậm chí là sự tuyệt chủng của loài người".

Jan Leike, người được bổ nhiệm lãnh đạo nhóm, sau đó nói với các phóng viên rằng bản thân lời cam kết này đã là một "công cụ giữ chân nhân tài" hiệu quả.

Còn thực tế thì sao? Bốn người làm việc cùng hoặc có liên hệ chặt chẽ với nhóm này cho biếtsức mạnh tính toán thực tế được phân bổ chỉ bằng 1% đến 2% tổng sức mạnh tính toán của công ty và đây vẫn là phần cứng lâu đời nhất. Đội sau đó đã bị giải tán, nhiệm vụ của nó không được hoàn thành.

Khi một phóng viên yêu cầu phỏng vấn người chịu trách nhiệm nghiên cứu "an ninh hiện sinh" tại OpenAI, câu trả lời về quan hệ công chúng của công ty thật đáng kinh ngạc: "Đó không phải là một...thứ thực sự tồn tại."

Bản thân Altman rất bình tĩnh. Ông nói với các phóng viên rằng “trực giác của ông không phù hợp với nhiều thứ bảo mật AI truyền thống” và OpenAI vẫn sẽ thực hiện “các dự án bảo mật, hoặc ít nhất là các dự án liên quan đến bảo mật”.

CFO bị sa thải và đợt IPO sắp xảy ra

Câu chuyện của New Yorker chỉ là một nửa tin xấu trong ngày. Cùng ngày, The Information tung ra một tin tức bom tấn khác: Có sự bất đồng nghiêm trọng giữa CFO Sarah Friar của OpenAI và Altman.

Friar 私下告诉同事,她觉得 OpenAI 今年还没准备好上市。 Hai lý do: Khối lượng công việc về thủ tục và tổ chức phải thực hiện quá lớn và rủi ro tài chính do Altman hứa hẹn 600 USD tỷ USD chi tiêu cho sức mạnh tính toán trong 5 năm là quá cao. Cô thậm chí còn không chắc tốc độ tăng trưởng doanh thu của OpenAI có thể duy trì được những lời hứa đó hay không.

Nhưng Altman muốn gấp rút tiến hành IPO vào quý 4 năm nay.

Điều đáng phẫn nộ hơn nữa là Friar không còn báo cáo trực tiếp cho Altman nữa. Từ tháng 8 năm 2025, cô sẽ báo cáo với Fidji Simo (CEO bộ phận kinh doanh ứng dụng của OpenAI). Còn Simo vừa xin nghỉ ốm tuần trước vì lý do sức khỏe. Chúng ta hãy xem tình huống này: một công ty đang gấp rút tiến tới IPO, CEO và CFO có những khác biệt cơ bản, CFO không báo cáo với CEO và cấp trên của CFO đang đi nghỉ.

Ngay cả các giám đốc điều hành trong Microsoft cũng không thể chịu đựng được nữa, cho rằng Altman "đã bóp méo sự thật, đi ngược lại lời nói và liên tục đảo ngược các thỏa thuận đã đạt được." Một giám đốc điều hành của Microsoft thậm chí còn nói điều này: "Tôi nghĩ có khả năng nhất định rằng cuối cùng anh ta sẽ được nhớ đến như một Bernie Madoff hoặc một kẻ nói dối cấp độ SBF."

Bức chân dung "hai mặt" của Altman

Một cựu thành viên hội đồng OpenAI đã mô tả hai phẩm chất ở Altman với các phóng viên. Đoạn văn này có thể là bản phác thảo nhân vật tàn bạo nhất trong toàn bộ báo cáo.

Altman có sự kết hợp những phẩm chất cực kỳ hiếm có, giám đốc cho biết: Anh ấy có mong muốn mãnh liệt là làm hài lòng và được yêu thích trong mọi tương tác mặt đối mặt. Đồng thời, anh ta có sự thờ ơ gần như bệnh xã hội đối với những hậu quả có thể xảy ra khi lừa dối người khác.

Việc hai phẩm chất cùng xuất hiện ở một người là điều cực kỳ hiếm. Nhưng đối với người bán hàng thì đây lại là món quà hoàn hảo.

Có một ẩn dụ hay trong báo cáo: Jobs nổi tiếng với "lĩnh vực bóp méo thực tế" và ông có thể khiến thế giới tin vào tầm nhìn của mình. Nhưng ngay cả Steve Jobs cũng chưa bao giờ nói với khách hàng rằng: “Nếu bạn không mua máy nghe nhạc MP3 của tôi, những người thân yêu của bạn sẽ chết”.

Altman cũng nói điều tương tự về AI.

Vấn đề về tính cách của một CEO, tại sao mọi người đều gặp rủi ro

Nếu Altman chỉ là CEO của một công ty công nghệ thông thường, thì những cáo buộc này cùng lắm sẽ chỉ là một mẩu tin đồn kinh doanh xuất sắc. Nhưng OpenAI không bình thường.

Theo lời của mình, nó đang phát triển thứ có thể là công nghệ mạnh mẽ nhất trong lịch sử loài người. Nó có thể định hình lại nền kinh tế và thị trường lao động toàn cầu (chính OpenAI vừa ban hành sách trắng chính sách về tình trạng thất nghiệp do AI gây ra), đồng thời cũng có thể được sử dụng để chế tạo vũ khí sinh học và hóa học quy mô lớn hoặc tiến hành các cuộc tấn công mạng.

Tất cả các rào chắn an toàn chỉ có trên danh nghĩa. Sứ mệnh phi lợi nhuận của người sáng lập đã nhường chỗ cho đợt IPO. Cả cựu nhà khoa học trưởng và cựu giám đốc an ninh đều coi CEO là "không đáng tin cậy". Các đối tác ví CEO với SBF. Trong trường hợp này, tại sao vị CEO này lại phải đơn phương quyết định thời điểm tung ra một mô hình AI có thể thay đổi vận mệnh nhân loại?

Gary Marcus (giáo sư AI tại Đại học New York và người ủng hộ an toàn AI lâu năm) đã viết câu này sau khi đọc báo cáo: Nếu một mô hình OpenAI trong tương lai có thể tạo ra vũ khí sinh học quy mô lớn hoặc thực hiện các cuộc tấn công mạng thảm khốc, bạn có thực sự tin tưởng một mình Altman quyết định có phát hành nó hay không?

Phản hồi của OpenAI với New Yorker rất ngắn gọn: "Phần lớn bài viết là sự kể lại các sự kiện được báo cáo, thông qua các tài khoản ẩn danh và giai thoại có chọn lọc, và nguồn rõ ràng có mục đích cá nhân."

Phản hồi của Altman rất đúng: không phản hồi các cáo buộc cụ thể, không phủ nhận tính xác thực của bản ghi nhớ, chỉ đặt câu hỏi về động cơ.

Con bò tiền mặt lớn lên từ xác của một tổ chức phi lợi nhuận

10 năm của OpenAI, được viết dưới dạng tóm tắt, là:

Một nhóm những người theo chủ nghĩa lý tưởng lo lắng về những rủi ro của AI đã tạo ra một tổ chức phi lợi nhuận theo sứ mệnh. Các tổ chức tạo ra những đột phá công nghệ phi thường. Đột phá thu hút lượng vốn khổng lồ. Nhu cầu vốn quay trở lại. Nhiệm vụ bắt đầu nhường chỗ. Đội an ninh đã bị giải tán. Những người hỏi đã bị thanh lọc. Cấu trúc phi lợi nhuận đã được thay đổi thành một tổ chức vì lợi nhuận. Ban giám đốc từng có quyền đóng cửa các công ty giờ đây có đầy đủ các đồng minh của CEO. Một công ty từng hứa sẽ sử dụng 20% ​​sức mạnh tính toán của mình để bảo vệ an ninh con người, giờ đây nhân viên quan hệ công chúng của công ty này nói rằng "đó không phải là sự thật".

Nhân vật chính của câu chuyện, hơn một trăm nhân chứng đã gán cho anh ta nhãn hiệu giống nhau: "Không bị ràng buộc bởi sự thật".

Anh ta đang chuẩn bị đưa công ty đi IPO với mức định giá hơn 850 tỷ USD.

Thông tin trong bài viết này được tổng hợp từ các báo cáo công khai trên The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information và các phương tiện truyền thông khác.

QQlink

Tidak ada "backdoor" kripto, tidak ada kompromi. Platform sosial dan keuangan terdesentralisasi berdasarkan teknologi blockchain, mengembalikan privasi dan kebebasan kepada pengguna.

© 2024 Tim R&D QQlink. Hak Cipta Dilindungi Undang-Undang.