Litecoin

New Yorker의 심층 조사 읽기 : 왜 OpenAI의 자신의 사람들이 Altman을 믿을 수 없습니까?

2026/04/07 13:39
👤ODAILY
🌐ko

비영리체에, 돈 채우기 나무가 자랐다. 。

New Yorker의 심층 조사 읽기 : 왜 OpenAI의 자신의 사람들이 Altman을 믿을 수 없습니까?

원본 저자: 케이크, 깊은 tide TechFlow

2023 년, OpenAI 수석 과학자 Ilya Sutskever는 컴퓨터 앞에서 sat를하고 70 페이지 문서를 완료했습니다。

이 문서는 Slack 메시지 기록, HR 통신 파일 및 내부 회의 분에서 한 가지 질문에 대답했습니다. Sam Altman은 인간 역사에서 가장 위험한 기술이 될 수 있다는 것을 통제 할 수 있습니까

Sutskever의 대답은 문서의 첫 번째 페이지의 첫 번째 줄에 작성되었으며, "Sam은 행동의 일관된 패턴을 표시합니다 ..."

기사 I:이름 *。

오늘, 두 반 년 후, 조사 저널 Ronan Farrow 및 Andrew Marantz는 뉴욕에서 긴 인터뷰를 발표했습니다. 100 개 이상의 클라이언트가 인터뷰하고 Anthropic Dario Amodei의 창시자 인 OpenAI 시대의 개인 노트의 200 개 이상의 페이지가 공개되었습니다. 이 문서의 이야기는 2023 균류보다 훨씬 더 악화됩니다 : OpenAI가 상업적인 기계에 인간 보안을 위해 태어난 비영리 조직에서 갔다, 거의 모든 보안 울타리는 같은 사람에 의해 제거되었습니다。

Amodei의 결론은 다음과 같습니다"OpenAI와의 문제는 Sam 자신입니다."

OpenAI의 원래 범죄가 설정됩니다

이 이야기의 무게를 이해하기 위해, 단지 특별한 OpenAI가 얼마나 말하는지。

2015 년 Altman과 실리콘 밸리 엘리트 그룹은 사업 역사에서 조금 전례를 받았다. 비영리 조직을 사용하여 인간 역사에서 가장 강력한 기술이 될 수 있습니다. 널의 역할은 아주 명확합니다: 안전은 회사의 성공에 전진하고 그것의 생존에. OpenAI의 AI가 위험한 경우, 이사회는 회사를 폐쇄하는 의무가 있습니다。

전체적인 건축은 HYPOTHESIS에 베팅합니다: AGI를 통제하는 사람은 극단적으로 정직한 사람이어야 합니다。

잘못되었는지

핵심 폭탄은 70 페이지 문서였습니다. Sutskever는 사무실 정치, 그는 세계 최고의 AI 과학자 중 하나입니다. 그러나 2023 년, 그는 한 가지 더 납득되었다 :Altman은 임원과 이사회에 속합니다。

특정 예 : 12 월 2022에서 Altman은 보안 정리가 들어오는 GPT-4의 다양한 기능을 위해 채택 된 회의에서 이사회를 보장합니다. 이사회 회원 토너는 승인 문서를 요청하고 가장 복잡한 기능 (사용자 정의 미세 조정 및 개인 보조 배치)의 두 가지가 모두 보안 패널에 의해 승인되지 않았음을 발견했습니다。

더 많은 것은 인도에서 발생합니다. 한 명의 직원은 "그 위반"을 다른 보드 회원에게보고했습니다. Microsoft는 필요한 보안 정리를 완료하지 않고 인도에서 ChatGPT의 초기 버전을 발표했다。

Sutskever는 또한 memorandum에서 또 다른 문제를 기록했습니다. Altman은 보안 정리 프로세스가 덜 중요하고 회사의 일반 법률 고문이 허용 한 이전 CTO Mira Murati에 명시되었습니다. Murati는 다른 측면이 말했다는 것을 확인하기 위해 일반 상담에 ran, "나는 Sam이 어디에서 왔는지 모른다."

Amodei의 개인 노트의 200 페이지

Sutskever의 파일은 prosecutor의 indictment와 같습니다. Amodei는 200 페이지 이상의 메모를 왼쪽, 범죄 장면에서 증언에 의해 더 많은 일기。

Amodei는 몇 년 동안 OpenAI에서 보안을 담당하고 비즈니스 압력에서 회사의 재평가를 목격했습니다. 그의 노트에서, 그는 2019의 Microsoft 투자 사례의 주요 세부 사항에 대해 썼다 : 그는 다른 회사가 더 안전한 AGI 경로를 발견 한 경우 OpenAI의 전세에 "merger and Help" 항목을 삽입 한 경우, OpenAI는 경쟁을 중단하고 그 회사에 도움이 될 것입니다. 이것은 전체 거래에서 가장 중요한 보안입니다。

거래가 서명될 때, Amodei는 한 가지를 발견했습니다. Microsoft는이 항목에 veto를 얻었습니다. 무엇을 의미합니까? 경쟁자가 더 나은 방법을 찾는 경우에도 Microsoft는 OpenAI의 의무를 지원할 수 있습니다. 이 조항은 여전히 종이에 있었지만, 그 날부터 스크랩 종이가 서명되었습니다。

Amodei 그런 다음 Openai를 떠났고 Anthropic을 만들었습니다. 두 회사 간의 경쟁의 바닥은 "AI가 개발해야하는 방법에 대한 근본적인 불평입니다."。

누락의 20 %

이야기에 대한 세부 사항이 있습니다., 당신의 뒤를 냉각하는 것을 읽고, OpenAI의 "슈퍼 정렬 팀"。

2023 년 중 Altman 전자 메일은 "Ai's deceptive alignment"을 공부 한 Berkeley의 의사 학생에게 연락했습니다 (시험에 넣어, 실제로 배치 된, 그는 문제에 대해 매우 걱정하고 $ 10 억 글로벌 연구 상을 설정하는 것을 고려했다. 의사의 학생은 격려, 중단, OpenAI에 합류했다。

그리고 Altman은 그의 마음을 바꿨다 : 더 이상 외부 상, 회사 내 슈퍼 팀. 회사는 이 팀에 유효한 신용의 20 퍼센트를 할당 할 것이라고 발표했다, 잠재적으로 $ 1 억. 발표는 매우 심각하다, 정렬 문제가 해결되지 않은 경우, AGI는 "human disempowerment, 심지어 인간 멸종"으로 이어질 수 있습니다。

Jan Leeke, 누가 팀을 이끌고, 나중에이 약속이 매우 효과적인 "뇌 유지 도구" 자체에 있었다보고자 말했다。

현실은 어떨까요? 이 팀에서 일하는 4명의 사람들 또는 가까운 접촉은 말했다실제 금액은 회사 전체의 1 % ~ 2 % 또는 가장 오래된 하드웨어입니다. 이 팀은 연속적으로 분산되고 임무는 완료되지 않았습니다。

기자가 "Sexual Safety"에 OpenAI의 조사를 인터뷰 할 때 회사의 공개 관계 응답은 사람들이 웃음을했다 : "실제로 존재하는 것은 아닙니다."

Altman 자신은 매우 정직합니다. 그는 그의 "intuitives는 전통적인 AI 안전"과 OpenAi가 "안전 프로젝트"또는 안전하지 않은 적어도 사람들을 수행 할 것이라고보고 말했다。

빈 CFO 및 향후 IPO

뉴욕 이야기는 하루의 나쁜 소식입니다. 같은 날에, 정보는 다른 무거운 뉴스를 게시:OpenAI의 CFO Sarah Friar와 Altman은 심각한 불멸을 겪었습니다。

Friar는 그녀가 Openai를 생각하지 않았다 개인적으로 그녀의 동료에게 올해 시장을 준비했다. 두 가지 이유는 다음과 같습니다. 직업 및 조직 작업 부하는 Altman이 너무 높고 Altman에 의해 헌신 한 컴퓨팅 지출에 $ 5 년 $ 60 억과 관련된 금융 위험도가 높습니다. 그는 OpenAI의 수익 성장이 이러한 약속을 지속한다는 것을 확실하지 않습니다。

그러나 Altman은 올해 4 분기에 IPO를 스프린트하려고합니다。

그리고 심지어 악화, 더 이상 Altman에 직접보고. 8 월 2025에서 Fidji Simo (OpenAI Application CEO)에보고했습니다. 그리고 Simo는 건강한 이유를 위한 마지막 주이라고 칭합니다. CFO는 CEO, CFO가 CEO를 보고하지 않는 CFO가 아닌 CFO가 CEO를 보고하지 않는 회사간에 근본적인 불평이 있는 상황입니다。

Microsoft의 임원조차 볼 수 없습니다. Altman "이 사실에 기여하고 계약이 도달 한 것을 의미하지 마십시오." 마이크로 소프트 임원도 말했다, "나는 그가 Bernie Madoff 또는 SBF-grade liar로 기억 될 수있는 기회가있다."

Altman의 두 얼굴

이전 OpenAI 이사회 회원은 Altman의 두 가지 기능을 기자에게 설명했습니다. 이것은 아마도 전체 이야기에서 최악의 문자 스케치입니다。

이사는 Altman이 매우 드문 조합을 가지고 있다고 말했다 : 모든 얼굴에 얼굴 교환에서, 그는 강한 욕망을 기쁘게하고 좋아한다. 동시에, 그는 다른 사람들을 감행의 결과와 조금했다。

그것은 매우 드물다 두 특성은 한 사람에 나타납니다. 그러나 판매인을 위해, 그것은 완벽한 선물이었습니다。

보고서에는 METAPHOR가 있습니다. JOBOS는 "REAL-TWISTING FORCE FIELD"로 유명하며 그 비전의 세계를 납득 할 수 있습니다. 그러나 심지어 JOBOS는 고객 "당신은 내 MP3 플레이어를 구입하지 않습니다, 당신이 사랑하는 사람들이 죽을 것입니다."。

Altman은 AI에 대해 뭔가를 말했다。

CEO 인사 왜 모두가 위험합니까

Altman, 일반 기술 회사의 CEO 인 경우,이 주장은 최고의 상업 gosssip입니다. 그러나 OpenAI는 정상이 아닙니다。

그것의 자신의 말에서, 그것은 아마 인간적인 역사에 있는 가장 강력한 기술 개발입니다. OpenAI 자체는 AI에 대한 정책 백서를 발행하여 대규모 생물학 및 화학 무기를 제조하거나 Cyberattacks를 출시하는 데 사용될 수도 있습니다。

모든 보안 감시는 죽은. 설립자의 비영리 임무는 IPO SPRINTING에 방법을 준. 전 수석 과학자와 보안의 전 책임자는 CEO "무선"을 발견했습니다. SBF에 CEO를 비교합니다. 이 경우, CEO는 인간의 운명을 바꿀 수있는 AI 모델을 게시 할 때 단면으로 결정 할 수 있습니까

보고서를 읽은 후, Gary Marcus는 다음과 같이 썼습니다. 미래의 OpenAI 모델 중 하나가 대규모 생물학적 및 화학 무기를 생산하거나 catastrophic 사이버 공격을 시작하면 Altman을 믿을 수 있습니다

OpenAI's response to the New Yorker is simple: "이 문서의 대부분은보고 된 것의 이야기에 관한 것입니다, 그리고 그것은 정보의 소스는 익명의 진술과 선택적 인 통찰력을 통해 개인적 목적을 가지고 있다는 것을 명확하다."

Altman은 매우 잘 응답 : 그것은 특정 할당에 반응하지 않았다, 그것은 memorandum의 정체성을 부인하지 않았다, 그것은 단지 동기를 질문했다。

비영리체에 돈나무가 있습니다

OpenAI의 10 년, 그리고 그것은 이야기 개요를 작성:

위험 기반 이상자 그룹은 미션 기반 비영리 단체를 만들었습니다. 조직은 특별한 기술 혁신을 만들었습니다. BREAKTHROUGH는 엄청난 양의 자본을 유치했습니다. 자본은 반환한다. 미션은 길을 시작합니다. 보안 팀은 분산되어 있습니다. 자주 묻는 질문 비영리 건축은 수익 창출 기업으로 전환되었습니다. 한 번 CEO의 전무 이사의 이사회를 종료 할 권리가있었습니다. 인류의 보안을 보호하기 위해 CALCULUS의 20 %를 약속 한 후, 이제 PR은 "진정한 것은 아닙니다."라고 말합니다。

이야기의 주인공, 백 가족 이상, 그에게 동일한 레이블을 준: "진실에 의해 경계하지."

그는 회사에 대해이었다 IPO, 이상 가치 $85 억。

이 게시물은 New Yorkers, Semafor, Tech Brew, Gizmodo, Business Insider 및 The Information의 공공 적용의 합성입니다。

QQlink

暗号バックドアなし、妥協なし。ブロックチェーン技術に基づいた分散型ソーシャルおよび金融プラットフォームで、プライバシーと自由をユーザーの手に取り戻します。

© 2024 QQlink 研究開発チーム. 無断転載を禁じます。