banner
뉴스 센터
뛰어난 품질의 제품을 저렴한 가격으로 제공합니다.

워싱턴은 AI 무료를 막을 수 있다

Jun 11, 2023

워싱턴이 실리콘 밸리에 책임을 묻는 다섯 가지 방법

지난 4월 Avianca 항공사의 변호사들은 이상한 점을 발견했습니다. 승객인 로버트 마타(Robert Mata)는 비행기의 서빙 카트가 왼쪽 무릎에 부딪혀 심각한 부상을 입었다고 주장하며 항공사를 고소했지만 마타의 소송에 인용된 여러 사례는 존재하지 않는 것으로 보입니다. 판사도 이를 확인할 수 없었습니다. ChatGPT가 이름과 결정을 조작하여 모든 것을 구성한 것으로 밝혀졌습니다. Mata의 변호사 중 한 명인 Steven A. Schwartz는 법률 연구를 위해 처음으로 이 프로그램을 사용하여 챗봇을 보조자로 사용했으며 Schwartz가 진술서에 쓴 것처럼 "내용이 거짓일 수 있다는 가능성을 인식하지 못했습니다. ”

이 사건은 금융 사기, 합의되지 않은 포르노 등은 물론이고 생성 AI가 허위를 퍼뜨리는 수많은 사례 중 하나에 불과했습니다. 기술 기업은 AI 제품을 마케팅하고 잠재적으로 막대한 이익을 얻고 있지만, 해당 제품이 초래할 수 있는 실제 피해에 대한 책임이나 법적 감독은 거의 없습니다. 연방정부는 이제 따라잡기 위해 노력하고 있다.

지난달 말, 바이든 행정부는 AI 개발의 최전선에 있는 7개 기술 회사가 자사 제품이 "안전하고 보안되며 신뢰할 수 있음"을 보장하기 위한 일련의 자발적인 약속에 동의했다고 발표했습니다. 이러한 약속은 AI에 관한 백악관 정상회담, 기술 규제에 대한 의회 증언, AI를 심각하게 받아들이고 있다는 다양한 정부 기관의 선언에 따른 것입니다. 발표에서 OpenAI, Microsoft, Google, Meta 등은 자사 제품을 제3자 테스트에 적용하고 편견 감소에 투자하며 AI 시스템의 기능과 한계에 대해 보다 투명하게 공개하겠다고 약속했습니다.

읽기: 미국에는 이미 AI 하위 계층이 있습니다.

언어는 유망하지만 단지 약속일 뿐이며 시행 메커니즘과 다음 단계에 대한 세부 정보가 부족합니다. AI를 규제하려면 비밀로 악명 높은 기업과 빠르게 진화하는 기술을 처리하기 위해 막대한 관료주의가 필요합니다. Biden 행정부의 언어 유인원 기술 전문가들의 홍보 라인 중 상당수는 생물 무기 및 "자기 복제" 기계와 같은 제품의 세계 종말 능력에 대한 것입니다. 사람들의 생명과 생계를 보호하기 위해서는 정부의 조치가 필수적입니다. 악의 초지능 기계의 장기적인 위협뿐만 아니라 일상적인 위협으로부터도 말이죠. 제너레이티브 AI는 이미 심각한 편견과 오용 가능성을 보여주었습니다. 그리고 10년 넘게 진단 소프트웨어와 안면 인식 도구의 일부로 덜 발전했지만 비슷하게 불투명하고 종종 차별적인 알고리즘이 이력서를 심사하고 신용 점수를 결정하는 데 사용되었습니다.

나는 여러 전문가들과 이야기를 나누고 정부가 AI를 규제하여 기술의 일상적인 위험뿐만 아니라 더 가설적이고 묵시적인 위험으로부터 국가를 보호할 수 있는 가장 효과적인 5가지 방법 목록을 제시했습니다.

1. AI 회사의 말을 받아들이지 마십시오.

화학요법을 위해 광고되는 약물은 종양을 축소하는 등의 임상시험에서 암 환자에게 명백히 혜택을 주고 FDA 승인을 받아야 합니다. 그러면 제조사는 환자가 겪을 수 있는 부작용을 공개해야 합니다. 그러나 AI 제품에는 그러한 책임이 존재하지 않습니다. AI 나우 연구소(AI Now Institute)의 상무이사이자 전직 FTC AI 수석 고문인 사라 마이어스 웨스트(Sarah Myers West)는 “회사들은 AI가 X 또는 Y 일을 할 수 있다고 주장하지만 그럴 수 있다는 것을 입증하지 못하고 있다”고 말했다. 수많은 기술 회사는 알고리즘이 얼마나 편향되어 있거나 효과적인지 잘못 표현하거나 알고리즘을 평가할 증거를 거의 제공하지 않는다는 이유로 비판을 받아 왔습니다.

AI 도구가 편견, 정확성 및 해석 가능성에 대해 합의된 측정 기준을 충족하는지 확인하기 위해 제3자 테스트를 거치도록 의무화하는 것은 "정말 중요한 첫 번째 단계"라고 비영리 단체인 민주주의 및 기술 센터의 알렉산드라 기븐스 회장은 말했습니다. 인터넷에서 개인 정보 보호와 인권을 옹호하고 기술 업계로부터 자금을 일부 받고 있다고 말했습니다. 회사는 프로그램 교육 방법, 소프트웨어의 제한 사항, 잠재적인 피해를 완화하는 방법에 대한 정보를 공개해야 할 수도 있습니다. 그녀는 “지금은 엄청난 정보 비대칭성이 존재합니다.”라고 말했습니다. 기술 회사는 소프트웨어 교육 및 검증 방법에 대해 거의 공개하지 않는 경향이 있습니다. 감사에는 컴퓨터 비전 프로그램이 얼마나 자주 흑인 얼굴과 백인 얼굴을 잘못 인식하는지 또는 챗봇이 특정 직업을 고정관념적인 성 역할과 연관시키는지 여부를 테스트하는 작업이 포함될 수 있습니다(ChatGPT에서는 변호사가 남성이어야 하기 때문에 변호사는 임신할 수 없다고 말한 적이 있습니다).