구글, 무기 및 감시 분야에서 AI 금지 해제: 첨단 기술의 불안한 미래
구글은 무기와 감시 시스템에서 인공지능을 사용하는 것을 금지하는 오랜 금지 조치를 해제했습니다. 이는 회사의 AI 개발에 대한 윤리적 입장에 큰 변화가 있음을 의미하며, 전직 직원과 업계 전문가들은 이를 통해 실리콘 밸리가 AI 안전에 접근하는 방식이 바뀔 수 있다고 말합니다.
이번 주에 조용히 구현된 이 변경 사항은 핵심 부분을 제거합니다. 구글의 AI 원칙 회사가 무기나 감시를 위한 인공지능을 개발하는 것을 명시적으로 금지했습니다. 이러한 원칙은 2018년에 설립되었습니다.책임감 있는 AI 개발을 위한 산업 벤치마크 역할을 합니다.
Google Cloud에서 아웃바운드 제품 관리, 참여 및 책임 있는 AI 부문의 수석 이사로 5년 동안 Google의 기본 AI 원칙을 구현한 Tracy Pizzo-Fry는 게시물에 다음과 같이 썼습니다. 파란 하늘"마지막 보루가 무너졌습니다. 구글은 자신이 만들 것에 대한 의지를 이렇게 명확하게 밝힌 유일한 회사입니다."
개정된 원칙은 네 가지 구체적인 금지 조항을 삭제합니다. 공공에 해를 끼칠 가능성이 있는 기술, 무기 응용 프로그램, 감시 시스템, 그리고 국제법과 인권을 침해하는 기술입니다. 대신 다음과 같이 명시합니다. 구글 이제 이 법은 "의도치 않은 또는 해로운 결과를 완화"하는 데 도움이 될 것이며 "널리 받아들여지는 국제법과 인권 원칙"과 일치할 것입니다.

구글의 AI 윤리 제한 완화: 감시 기술과 군사 분야에 어떤 의미가 있을까?
이러한 변화는 특히 민감한 시기에 이루어졌습니다. AI 역량이 급속도로 발전하고 있으며, 이 기술에 대한 적절한 통제를 둘러싼 논쟁이 격화되고 있기 때문입니다. 이러한 시점은 구글의 의도에 대한 의문을 제기했지만, 구글은 이러한 변화가 오랫동안 개발되어 왔다고 주장합니다.
"우리는 거대 기술 기업에 대한 불신이 만연한 상황에 처해 있으며, 통제를 없애려는 모든 조치는 불신을 증폭시킵니다."라고 피조-프라이는 벤처비트와의 인터뷰에서 말했습니다. 그녀는 구글에서 근무하는 동안 신뢰할 수 있는 AI 시스템을 구축하기 위해서는 명확한 윤리적 경계가 필수적이었다는 점을 강조했습니다.
원래 원칙은 2018년 직원들의 항의 속에서 등장했습니다. 프로젝트 메이븐, 드론 영상 분석을 위한 인공지능 활용을 포함하는 펜타곤과의 계약. 구글은 결국 이 계약 갱신을 거부했지만, 이러한 새로운 변화는 유사한 군사 협력에 대한 개방적인 입장을 시사할 수 있습니다.
이 개정안은 이전 윤리적 틀의 일부 요소를 그대로 유지했습니다. 구글의 경우하지만 특정 애플리케이션을 금지하는 것에서 위험 관리를 강조하는 방향으로 전환하고 있습니다. 이러한 접근 방식은 다음과 같은 업계 표준에 더 부합합니다. NIST AI 위험 관리 프레임워크하지만 비판론자들은 잠재적으로 유해한 앱에 대한 제한이 덜 엄격하다고 주장합니다.
베조 프라이는 "좋은 AI를 만드는 것만큼 윤리적 고려 사항도 중요합니다. 정확도가 같지 않더라도요."라고 말하며 윤리적 고려 사항이 어떻게 AI 제품의 효과성과 접근성을 개선하는지 강조했습니다.
Project Maven에서 정책 변혁까지: Google의 AI 윤리 개혁 경로
업계 관계자들은 이러한 정책 변화가 다른 기술 기업들의 AI 윤리 접근 방식에 영향을 미칠 수 있다고 말합니다. 구글의 초기 원칙은 AI 개발에 있어 기업의 자율 규제에 대한 선례를 남겼으며, 많은 기업들이 책임감 있는 AI 구현에 대한 지침을 구글에 기대하고 있습니다.
이 개정안은 기술 업계의 급속한 혁신과 윤리적 제약 사이의 광범위한 갈등을 반영합니다. AI 개발 경쟁이 치열해짐에 따라 기업들은 책임 있는 개발과 시장 수요 사이에서 균형을 맞춰야 하는 압박에 직면하고 있습니다.
피초 프라이는 "세상에 이런 일이 얼마나 빨리 확산될지, 그리고 플러스와 플러스가 제약에서 벗어날 수 있을지 걱정된다"며 잠재적 결과를 적절히 평가하지 않고 AI 제품을 신속하게 출시하려는 경쟁 압력에 대한 우려를 표명했다.
빅테크 기업의 윤리적 딜레마: 구글의 AI 정책 전환이 새로운 산업 표준을 제시할 것인가?
이 검토는 또한 구글의 내부 의사 결정 프로세스와 직원들이 명시적인 금지 없이 윤리적 고려 사항을 어떻게 처리할 수 있는지에 대한 의문을 제기합니다. 베조 프라이는 구글 재직 당시 AI 애플리케이션의 잠재적 영향을 평가하기 위해 다양한 관점을 종합하는 검토 프로세스를 구축했습니다.
구글은 책임 있는 AI 개발에 대한 의지를 유지하고 있지만, 구체적인 금지 조항의 철폐는 AI 애플리케이션에 대한 명확한 윤리적 경계를 설정하는 데 있어 이전의 주도적인 역할과는 상당한 차이를 보입니다. AI가 계속 발전함에 따라, 업계에서는 이러한 변화가 AI 개발 및 규제의 더 광범위한 영역에 어떤 영향을 미칠지 주시하고 있습니다.
댓글이 닫혔습니다.