AI의 결정은 누구입니까
사람들이 여전히 시스템이 AI가 인력을 확장하거나 교체하는지 결정합니다

원래 제목: 누가 로그인
Ashwin Gopinath의 사진
Peggy Block Beats의 사진
컴파일러의 미래 부문 : AI 에이전트는 모델 기능에 대한 도약에 의존하지 않지만, 오히려 더 기본적인 디자인 변수에 - 누구의 책임 가을。
저자의보기에서, 소위 "인간"및 "인간"은 기술 경로의 두 세트가 아니라 다른 디자인 옵션의 밑에 동일한 시스템의 두 가지 결과 - AI는 의사 소통과 책임이 특정 개인으로 돌아갈 때 여전히 필요한 앰프입니다; 이 링크가 제거 될 때 (예 : 자동 승인, 건너뛰기 권한), 체계는 자연스럽게 대체로 이동합니다。
이 기사는 AI 프록시의 실제 값이 "일"을 피할 수 없지만 인간이 이해의 결과를 부담 할 수있게 해주는 "SIGNATUREABLE DECISION-MAKING UNIT"으로 복잡한 세계를 압축하는 것이 아닙니다. 실제로, 그러나, "보통 피로"는 사용자가 검열에서 멀리 이동 할 수 있습니다, 기사에서 TACIT 동의에 의해 승인, 궁극적으로 인간이 시스템을 우회, 이는 개인 문제보다 인식 메커니즘입니다。
따라서, 기사는 두 개의 키 제약을 제안합니다: 첫째, 모든 중요한 결정은 특정, 재발견 사람에 대해해야; 그리고 두 번째, 누가 에이전트 's 자율성에서 혜택을하는 것은 문제에 대한 책임입니다。
BUILDER에 책임이 반환되면 시스템 변경의 기본 논리. 이 프레임 내에서, AI의 상업 NARRATIVE는 또한 REWRITTEN이었습니다. 대신 "작업 절반"을 대체, 분산 도구에 대한 시장은 "인간 생산성을 극대화" 글로벌 지적 노동 소득의 약 40 조의 앵커, 오히려 기업 소프트웨어 지출보다。
결국, 기사는 매우 간단하지만 날카로운 선택으로 질문을 집광했다 : AI가 사람들을 봉사하거나 자신의 끝을 위해 - 각 제품의 디자인 세부 사항에 의해 조용히 결정되는 대답。
다음은 원본 텍스트입니다:
TL; DR
• 강화된 미래 및 대안 미래는 모형과 공구의 동일한 세트를 이용합니다. 또 다른 하나에서 그들을 분리하는 것은 "누가 결과로 끝날 것입니다."。
에이전트의 실제 작업은 다른 사람들을 위해 작업을 수행하지 않지만, 누군가가 회계를 개최 할 수있는 가장 작고 믿음있는 "decision-making module"으로 복잡한 세계를 압축합니다. 이 압축이 완료되면, 다른 모든 것이 매끄럽게 이동합니다。
• 이 "사람"은 명확하게 식별 할 수있는 특정 개인이어야합니다. Fuzzy, 종합적인 책임은 높은 짐의 밑에 빨리 끊을 수 있습니다, 그래서 실제적인 결과를 가진 각 활동은 refusal의 실제적인 권리를 가진 사람에 추적되어야 합니다。
• "Licens 피로"는 에이전트 시스템을 통해 자신의 진화 경로에 자동으로 슬라이드 할 수 있습니다. "subs humans." 따라서 "enhanced Future"는 기본적으로 발생하지 않지만이 추세를 반대하도록 설계해야합니다。
• 당신은 자신의 자율성에서 에이전트와 이익을 구축하는 경우, 그 자율이 질문에있을 때, 당신은 회계를 개최해야합니다. Builders에 비용을 정말로 떨어지면 시스템의 기본 동작이 변경됩니다。
• 이 종류의 시장은 "사람은 여전히 책임을 가지고있다", "수직 에이전트가 일자리의 한 절반을 대체"의 현재 narrative보다 더 큰 될 가능성이, 몹시 투자, 그것은 닻이 기업 소프트웨어 예산, 그러나 고도로 숙련 된 인력의 총 임금。

Claude Code는 --dangerously-skip-missions라는 매개 변수를 제공합니다. 이름은 정직합니다. 이 매개 변수의 역할은 문자 그대로 표시됩니다. 이 매개 변수에서 동작하는 에이전트는 활성화되지 않았을 때보다 더 많은 할 수 없습니다. 변경은 인간을 통해 전달되는 링크가 이제 인간의 우회하는 것입니다。
이 매개 변수는 고백에 있습니다. 그것은, 완전히 동일한 밑바닥 수용량의 경우에는, 동일한 체계는 “enhanced 인간적인 존재”의 형태로 또는 “silent 인간적인 보충”의 모양에서 작동할 수 있습니다 인식합니다. 소위 대체 모델은 다른 모델이 필요하지 않습니다. 단순히 "소위"단계에서 이동해야합니다。
압축 후 인수입니다. 지금까지 출시 된 가장 가능한 에이전트 시스템에서 "enhanced"과 "효용 대용" 사이의 간격의 대부분은 새로운 기능 범주의 생성보다 오히려 승인의 제거로 인해 발생합니다. 향후 10 년은 "인간 세계"또는 "인간 행동의 자율 세계"와 같은 모델, 이러한 시스템을 구축 한 사람들에 따라 시스템의 핵심 또는 마찰으로 "사람의 반환"을 볼 수 있는지 여부에 따라。
AI는 사람들을 강화하거나 사람들을 우회합니까
각 기술적인 질문에서, 비 기술적인 질문이 있고, 아주 몇몇은 대중적으로 그것을 올리고 싶을 것입니다: 인간적인 수당을 위한 AI, 또는 그것의 자신의 술을 위한 AI입니다
두 답변은 진정한 다른 미래를 의미합니다. "enhanced"의 위치는 인간 경주 자체에 존재한다는 것입니다. 에이전트의 작업은이 사람을 더 얻고 더 나은 결정을 내립니다. "AI as a end" 위치는 세계에서 인텔리전스가 자체의 가치이며 인간은 궁극적으로 효율적인 캐리어입니다. 대부분의 에이전트 제품은 침묵적으로 이러한 위치 중 하나를 코딩, 그리고 그것은 몇 명의 설립자가 자신의 범주에 대해 직접 물었다。
수용량과 동의 기계장치의 디자인은 아직도 진화입니다. 이 종이는 "콘센서스"측에 초점을 맞추기 때문에, 빌더가 실제로 오늘 통제 할 수있는 변수이기 때문에, 생성 할 수있는 능력이 싸기 때문에, 그들은 여전히 사람들이 제거 할 수없는 속성 인 경제적 가치를 유지합니다 : 판단, 맛, 관계, 책임, 그리고 결정에 서명하고 결과를 곰. 그 중, "responsibility"는 수세기 동안 인프라에 의해 지원 된 유일한 요소입니다。
책임, 대변과 향상된 demarcation
"enhanced Future"와 "alternative Future"를 구별하는 구조적 규칙은 다음과 같이 광범위하게 표현될 수 있습니다. 실제 결과는 문서화 된 링크를 통해 특정 사람에게 추적 할 수 있어야합니다. 이 남자는 컨텍스트를보고 실제로 "아니"라고 말할 수있는 기회가있었습니다。
일반화의 의무는 곧이 시험을 통과하지 못합니다. “이 회사는 책임” 어떤 특정한 내용을 커버하기 위하여 작동하지 않습니다. "사용자는 동의를 클릭"은 특정 사항에 동의하지 않습니다. "인간 감사 과정"이 사람이 마침내 출판 된 것을 완전히 다른 것을 검사 할 수 있습니다. 실제로 필요한 것은 특정 사람, 이름이있는 사람, 그는이 결정을 전에보고, 거부 할 수없는 옵션을 가지고 있습니다。
"responsibility"의 캐릭터가 다른 프로그램이없는 것을 알 수 있기 때문에 bureaucracy와 같은 소리. 수용량 증진은 그것을 낙관하지 않습니다; 더 똑똑한 모형은 궁극적으로 prosecuted, 벌금 또는 imprisoned 누구에게 영향을 미치지 않습니다. "no"포인트를 노출시키는 디자인 인터페이스를 강제합니다. 위험으로 자연스럽게 확장합니다. 그것은 또한 가장 교차 절단 제약 중 하나이며 이미 기존의 구현 인프라가 있습니다 : 법원, 보험 기관, 전문 보드, 규제 기관. Licensing 체계, fiduciary 책임 및 기업 규칙은 또한 일하고, 그러나 더 제한되고 모든 implicitly “attribution”는 해결되었습니다。
대조적으로, AI 수준 대안은 동일한 시험을 통과할 수 없습니다. "COHERENCE"는 구현 할 수 없습니다. 우리는 의미에 동의 할 수 없습니다. “INTERPRETABILITY”는 모양에서 만족될 수 있습니다, 그러나 물질에서 아닙니다. "뒤로 길에 누군가가 있습니다." “RESPONSIBILITY”는 기술이 출현하기 전에 수세기 동안 존재했던 구현 인프라가 확립되기 때문입니다。
Weak 액세스, 시스템을 "substitute"로 밀어
이 gradient는 "substitution"에 시스템을 밀어 매우 역동적이다. 모든 시간은 올바른 확인, 그것은주의 배수. 에이전트는 일반적으로 권리입니다. 직접 동의를 읽지 않는 예상된 이익은 수시로 개인적인 결정의 기간에 있는 긍정적입니다. 따라서 합리적인 사용자는 동의를 빨리 클릭하는 것을 배우고, 그 후에 대량에 동의하고, 그 후에 가동의 특정 유형에 자동적인 동의를 열고, 그 후에 세션에 있는 위험한 스위치가, 마지막으로 스위치의 존재를 잊는 것을 열습니다。
나는이 스위치를 열었다 2 주 나는 Claude 코드를 사용, 그리고 그것은 더 이상 3 주에 의해 볼 수 없었다. 모든 개발자는 Cursor 또는 Devin과 함께 장기적인 경험을 가지고 있습니다. 이 패턴은 쿠키 총알 창, EULA 프로토콜, TLS 경고, 휴대 전화 액세스 요청에도 있습니다. 의사 결정에 대한 낮은risk 동의를 처리하는 것은 결국 "조건적인 동의"로 감소됩니다. 이것은 도덕적 문제보다는 인식입니다。
강화된 미래는 자동적으로 일어나지 않습니다. undefended Agent 시스템의 기본 경로는 사용자 자체가 편의를 위해 검색의 대안 경로를 선택하기 위해 이니셔티브를 취하기 때문에 대안입니다. 다른 미래, 그것은이 gradient에 대해 설계되었습니다。
에이전트의 가치, 실행되지, 하지만 "sign."
에이전트의 실제 값은 작업 자체를 완료하지 않지만 서명 할 수있는 형태로 압축합니다。
프론트 라인 모델은 쉽게 4000 라인 코드 제출을 생산할 수 있으며 30 페이지 계약을 초안하여 임상 기록을 생성하거나 거래를 실행할 수 있습니다. 그러나 이러한 제품의 진정한 영향의 병목은 "그들의 세대"에 속하지 않지만 인간의 능력은 그들이 땅에 착륙 할 때 결과를 품는 것입니다. 이 웹 사이트는 귀하가 웹 사이트를 탐색하는 동안 귀하의 경험을 향상시키기 위해 쿠키를 사용합니다. 이 쿠키들 중에서 필요에 따라 분류 된 쿠키는 웹 사이트의 기본적인 기능을 수행하는 데 필수적이므로 브라우저에 저장됩니다. 또한이 웹 사이트의 사용 방식을 분석하고 이해하는 데 도움이되는 제 3 자 쿠키를 사용합니다. 이 쿠키는 귀하의 동의하에 만 브라우저에 저장됩니다。
"enhanced" 프레임 워크의 프레임 워크 내에서 에이전트는 "signature": 10,000 페이지의 컨텍스트를 읽고 4,000 코드를 작성하고 30 합리적 시나리오를 계산 한 다음 "yes"또는 "no"이 기초에 대한 결정을하고 문서의 하단에 이름을 배치 할 수있는 최소한의 충실한 표현으로 콘텐츠를 압축합니다。
에이전트는 뉴스 대변인으로 이해 될 수 있습니다. 대통령은 서명을 책임지고, Spokesperson는 서명하기 전에 모든 준비를 완료하는 책임입니다。
이것은 실제로 훨씬 더 어려운 엔지니어링 문제보다 "시스템 자체에서 작업을 수행." 콘텐츠를 생성하는 능력은 급속하게 향상되지만, "지능적 인 결정을 내릴 수있는 능력"은 훨씬 뒤로 움직입니다. "enhanced 시장"의 미래 수상자는 높은 책임 위험 시나리오에 대한 응답에서 가장 짧은 및 가장 충실한 요약을 제공 할 수 있다는 것입니다。
이 문장에서 실제 해결되지 않은 문제는 "끝"이라는 단어입니다. 인간이 읽을 수 있다는 것을 요약하고 이해하는 것은 압축 과정이 정보를 낭비하지 않는 경우에만 가치가 있을 수 있습니다. 이런 식으로 테스트 할 수 있는지 여부는 대부분의 사람들이 실제로 얼굴을 시작하지 않는 "enhanced Future"의 실제 기술 문제입니다。
몇몇 기본적인 접근법은 신중합니다:
restatement 시험은 인간적인 이해가 본래 내용으로 일관된다는 것을 확인합니다
적대성 또는 요약에 대한 의견
"당신이 거부하는 경우, 에이전트가 무엇을합니까?"
Revertible check (다른 에이전트는 동일한 상황에 따라 동일한 요약을 생성 할 수 있음)
이것들은 지금까지 해결되었습니다. 이 문제를 해결하는 첫 번째 팀은 모델링에 의해 쉽게 에로드되지 않을 모트를 구축 할 것입니다。
AI 행동에 대한 책임의 계층화
"responsibility"가 구조적 역할을 수행하면 에이전트가 수행 한 모든 행위는 행동에 필요한 최소한의 서명 메커니즘을 결정하는 "책임 수준"과 함께해야합니다。
현재 이러한 표준 시스템은 널리 설치되지 않았습니다. — 그것은 가능성이 높습니다。

이 웹 사이트는 애플 리케이션에 전념. 우리는 정품 앱과 게임을 제공 할 목적으로이 사이트를 만들었습니다. 4AppsApk 최고의 안드로이드 애플 리케이션을위한 무료 APK 파일 다운로드 서비스, 계략
결과와 일치하는 "approval posture"는 관리 피로에 대한 현실적인 경로입니다. 높은 리스크 수준에서, 더 많은 바인딩 긍정적인 참여 메커니즘 (예를 들어 반복 테스트, 냉각 시간, 두 번째 검사기) 이러한 장면에서 때문에, 실패의 진실한 패턴은 에이전트 's 실수가 아니라 생각없이 인간의 직접 승인。
당신은 걱정
이러한 모든 질문, 궁극적으로, 설립자 수준에서 기본 질문에 대한 포인트: 당신은 인류가이 미래의 일부 남아 있다는 것을 걱정? 에이전트 제품에 대한 현재 디자인 결정의 많은 것은 그들이 선택을 만드는 것을 인정하는 것을 자주 인정하지만, 문제에서 "실런 투표"에 필수적입니다。
이 웹 사이트는 애플 리케이션에 전념. 우리는 정품 앱과 게임을 제공 할 목적으로이 사이트를 만들었습니다. 4AppsApk 최고의 안드로이드 애플 리케이션을위한 무료 APK 파일 다운로드 서비스, 계략。
기술적인 일 자체는 현실적이고 무능합니다. 실제 난이도는 "enhanced"건설 경로가 데모 효과로 장관이 아니기 때문에, 또는 좌석 기반 수수료의 경제 모델로 급진적이다。
Anthropic 패러다임: 가장 보안 중심이지만 우회하기 쉽습니다
Anthropic은 이 지역에 "inherited deviations"가 어떻게 발생했는지의 매우 전형적인 예입니다. 이것은 특히 negligent이기 때문에 아닙니다; 오히려, 그것은 보안 문제의 가장 명확한 표현이기 때문에, "framework"과 "제품 표면"의 간격이 가장 눈에 띄는. "Responsible Scaling Policy"과 "Constituental AI"의 작업은 훈련 단계의 모델 행동에 의해 지배됩니다. 그러나, 에이전트, 이러한 모델에 내장 된, 기본 자율 설정, 이는 정책의 다른 시스템에 속하는, 쉬운 "hazard switch"는 단일 키와 기본 상태에서 활성화 될 수 있습니다。
이 패턴은 Anthropic이 가장 눈에 띄는 것을 제외하고 대부분의 주류 프로그래밍 에이전트에 존재합니다. 이것은 "Anthropic paradox": 업계에서 가장 명확한 실험실은 안전 프레임 워크를 작성하고 "enhanced"에서 "substitutions"로 가장 짧은 경로입니다。
공정하게, 그들은 수동 정리와 위험 스위치 사이의 중간 경로로 올해 3 월 "자동 모드"(자동 모드)를 출시했습니다. 이 모드에서 각 작업은 실행하기 전에 Sonnet 4.6 분류기에 의해 검토됩니다. 그들의 공식 노트에서, 그들은 직접 문제를 지적했다 - 그들은 "적용 피로"라고 부르고 하나의 데이터를 준: 사용자는 수동 모드에서 그들의 팁의 93 %를 수용 할 것입니다. 이것은 실제로 "legitimate 피로"의 정량 표현입니다. 이 판단은 여기에 제시된 분석과 일관성이 있습니다。
그러나 해결책 경로에, 나는 더 차이를 만들려고. "자동 모드"는 모델 승인과 인간의 승인을 대체합니다. 즉, "sliding"그라디언트가 끝나지 않지만 단순히 한 층을 이동합니다. 불균형은 위험한 행동을 결정할 수 있다는 사실이지만, 그 행위에 대한 진정한 책임은 없다. Anthropic 자체는 "자동 모드"가 위험을 제거하지 않으며 사용자가 고립에서 작동한다는 것을 제안합니다. 즉, "responsibility"의 문제는 해결되지 않습니다。
1개의 명백한 물체는 궁극적인 책임이 개인에 두는 경우에, 수동 형태가 아닙니다? 그리고 수동 형태는 피로에 의해 정확하게 펑크됩니다. "건축가에 의해 책임있는"이 글래드런을 탈출 할 수있는 이유는 "over-approval"의 비용 부담을 변경하기 때문입니다. 현재 구조의 밑에, 사용자는 그것을 품는 건축업자 없이 각 주의깊은 독서의 비용을 지불합니다, 그래서 기본적인 조정은 사용자 마찰과 외부화 위험을 감소시키기 위하여 경향이 있습니다. "무제한 행동의 가장"가 빌더로 옮겨지면 전체 계산이 반전됩니다. 빌더는 책임, 반복 테스트 및 승인 메커니즘의 층을 설계하기 위해 직접적인 경제 인센티브가 있으며 낮은 위험 결정의 서명 비용을 만들고 높은 위험 결정의 서명 비용이 높습니다. 그라디언트는 사라지지 않지만 방향이 변경됩니다. 날짜에, 문제의 인식에 가장 가까운 것을 포함하여 중요한 실험실의 진실한 연습이 없습니다。
에이전트를 구축하면 책임이 있습니다
에이전트의 명시적 목적은 원래 인간이 수행 한 행동을 수행하기 위해 인간의 존재를 대체하는 것입니다, 그 후 내장 및 운영 에이전트는 인간의 존재와 같은 책임을해야. 이 원칙은 급진적이지 않으며, 이미 전 세계 모든 분야에 적용되며, "진정한 세상에서 생성": 도요타는 브레이크를 책임지고, 보잉은 비행 통제 시스템을 책임지고, Pfizer는 약을 책임집니다, 교량 엔지니어는 교량을 책임지고 의사는 처방전을 책임집니다. 책임의 본은 거의 모든 법적 체계에서 존재합니다。
그러나 AI는 현재 "숨겨진 면제"의 특정 정도를 즐깁니다. 모델 공급자는 단순한 도구 공급자가 될 주장; 상단 응용 프로그램 회사는 단순히 모델에 대한 얇은 봉투를 주장; 사용자는 중재 조항을 통해 아웃셋에서 모든 책임을 면제. 에이전트 시스템은 chaining에서 실패 (예 : 캐나다 에어 채팅 로봇 케이스, Reflit deletes 생산 데이터베이스 이벤트, 또는 유사한 2012 Knight Capital Trading glitch loss of $440 만 45 분), 그것은 종종 손실, 사용자를 부담 할 수있는 당사자입니다. 책임의 배포의 이 패턴은 "가치 기반 및 문서화" 주요 사건의 첫 번째 경우 계속되지 않습니다。
해결책은 실제로 간단합니다: 누구든지 대리인을 건설하고 그것의 자율성에서 이득은 통제를 잃을 때 결과를 품아야 합니다. 책임이 실제로 빌더에 떨어지면, 힘 힌트는 " 마찰"으로 더 이상 고려되지 않지만 "보험"로 간주됩니다. 위험 스위치는 이름과 기본 설정이 변경됩니다。
자신의 시스템에 대한 책임은 실제 산업과 "pick-up 산업"과 구별하는 열쇠입니다。
"최고의 메커니즘"로 규정
시장 자체는 자연스럽게 "enhanced 미래"로 이동하지 않습니다. 그것은 종종 규칙과 보험 보험 보험은 진정으로 인도, 이는 반드시 일반적인 용어에 나쁜 것。
유럽은 첫 번째 규제 채널이 될 가능성이있다. EU는 규칙 만들기 (예 : GDPR, AI ACT, DMA)에 대한 명확한 우선권이 있으며, 이는 종종 비 EU 시장의 별도 세트를 유지하면서 글로벌 충진에 의해 이어지고 있습니다. 유럽 표준과 직접 준수보다는 일반적으로 높습니다. "모든 실제 결과와 행동하는 것은 궁극적으로 거부 할 권리로 알려진 인간이 확인되어야한다"는 기술 진전보다 오히려 자동차 충돌 테스트에 대한 표준에 가까이 있습니다。
더 직접 드라이버는 보험 부문에서 온다. 장애 및 omission 책임 보험(E&O)의 목적은 네트워크 보험에 대한 보험료(D&O) 및 보험 기관의 책임 보험(E&O), 질문에 대한 답변을 위해 필요한 것입니다. 그가 사용자의 권위에 따라 행동할 때 에이전트가 어떻게 책임질 수 있습니까? reimbursable 구조를 형성하기 위해 가장 가능성이있는 경로는 체인에있는 알려진 인간의 존재입니다. 따라서, 그러한 구조 시스템없이, 보험의 비용은 자연스럽게 더 높은 위험 프리미엄을 반영합니다. 규칙을 스스로 정의하고자하는 사람들을 위해, 오히려 통제자 또는 보험 회사보다, 시간 창은 정말 넓지 않습니다。
시장 논리는 주류 narratives에 의해 masked
현재 주류 narratives는 수직 분야의 에이전트가 업계에서 작업의 절반 정도를 흡수하고 몇 수직 통합 에이전트 회사에 집중 할 것이라고 제안합니다. 법적 분야의 "Anthropic", 의료 분야의 "Anthropic" 및 회계 부문의 "Anthropic". 작년에 AI-level financing의 거의 모든 억 달러와 반은이 가정에 몇 가지 정도에 내장되었습니다. 이것은 "항상 논리"의 포스트 상업 버전이지만 시장 구조를 판단하는 것이 틀림없고이 오류는 직접 방법 자본에 영향을 미칩니다。
"enhanced" 프레임 워크는 다른 형태의 시장을 의미합니다. 실제 결과에 대한 모든 행동은 궁극적으로 유명한 사람에 떨어졌다면, 판매 된 단위는 "자기 에이전트"가 아니라 "자기적 인 인간 능력"이 아닙니다. 의사는 3 번의 사례를 처리 할 수 있으며 더 정확하며 구매자입니다. 마찬가지로 10 번의 흐름을 커버 할 수있는 변호사, 5 번의 속도를 전달하는 엔지니어 및 회계원, 보험, 분석가, 건축가, 외과 의사, 교사, 학점, 기자 및 약사가 구매자입니다。
이 시장은 농도에 의존하지 않기 때문에 더 큽니다. 그러나 스케일 배포. 합리적인 평가 앵커는 기업의 소프트웨어 예산이어야하지만, "magnified " . Global Corporate IT expenditure는 연간 약 $ 4 조 (Gartner data); 및 숙련 된, 라이센스 및 지식 근로자의 글로벌 집계 remuneration은 약 $ 40 조 (International Labour Organization data and removal of low-skilled Components Quotes). 물론, AI 회사는 전체 임금 풀을받지 않습니다, 그러나 그들은 생산성 배당의 일부를 제거 할 수 있습니다. 단 하나 손가락 공유는 오늘 전체 기업 소프트웨어 시장의 크기의 시장을 지원할 것입니다, 이는 지면, 천장 아닙니다. 최종 시장 공간의 크기는 주요 디자인 결정에 따라 달라집니다. 누구의 책임은 떨어집니다。
궁극적 인 우승자, 대용품보다 더 많은 도구처럼, "표본 된 사람들"의 기초에 가격이 책정됩니다; 그들은 대신 대신 전문 작업 스트림을 설치에 내장되어 있습니다; 그들은 수천 가지가 없습니다. 시장의 최종 형태는 클라우드 인프라보다 SaaS에 더 가깝습니다. 우리는 여전히 배포 곡선의 매우 초기 단계에서, 일반적인 permeability 곡선, 10 년 이상 연장되는 축선에, 그러나 왼쪽에 약간의 화소만. 그리고 이 화소의 모양은 현재 제품의 작은 분수의 디자인 선택에 의해 결정됩니다。
선택: 그것은 책임있거나 사라졌습니까
인간의 책임을 유지하기 위해 시스템의 아키텍처를 강제로 "인간 인간"; 그리고, 한 번 사람들은 책임의 사슬에서 제거, 시스템은 기본적으로 슬라이더에 의해 할 것이다 "동의", 명시적으로 물었다면 모든 사람이 선택 할 수없는 결과。
진정한 질문은 일부 행동이 완전히 자동화되어야한다는 점이 아닙니다. 이는 순수한 정보 판독 클래스가 자동화 될 수있는 사실과 같은 상기 언급 된 프레임 워크에서 인식 된 점입니다. 열쇠는 국경이 어떻게 움직이고 누가 결정하는지, 위험이 상승합니다. 현재 state-of-the-art Agent 시스템에서 "enhanced"에서 "효과적인 substitution"의 경로는 매우 짧은, 종종 하나의 매개 변수 스위치 또는 기본 설정. 스위치가 항상 "허브 옵션"으로 보이지 않는 것을 보장하는 것은 정말 중요합니다。
건축가가가가이 작업을 수행하는 경우, 우리는 "enhanced 미래"가 상대적으로 매끄럽게 들어갑니다. 그렇지 않다면, 레귤레이터 및 보험사가 그들을 위해 수행 할 것이며 결과는 같은 방법으로 이동합니다。
이든, 디자인 선택입니다. 그리고이 선택은 당신이 짓는 것을 결정할 것입니다. 이제 에이전트 제품의 모든 설립자는 얼굴에 reluctant 보이는 질문에 답하기 위해 열려있었습니다. 건물, 강화 또는 교체입니까
[ 척 ]원본 링크]
