AI는 느슨하게 규제되기 때문에 책임은 회사 내부자에게 있다고 직원들은 기업에 비공개 계약을 해제하고 근로자가 익명으로 우려 사항을 제기할 수 있는 보호 장치를 제공할 것을 촉구했습니다.
OpenAI가 직면한 이러한 움직임은 다음과 같습니다. 직원 탈출. OpenAI 공동 창립자 Ilya Sutskever와 수석 연구원 Jan Leike를 포함하여 많은 비평가들은 일부 직원이 OpenAI의 기술을 더 안전하게 만드는 대가로 이익을 추구한다고 주장하는 회사 리더에 대한 질책으로 눈에 띄는 이탈을 보았습니다.
OpenAI의 전 직원인 Daniel Kokotajlo는 회사가 인공 지능의 위험을 무시했기 때문에 스타트업을 떠났다고 말했습니다.
따라잡기
빠르게 최신 정보를 얻을 수 있도록 요약된 스토리
그는 성명에서 “나는 그들이 책임감 있게 행동할 것이라는 희망을 잃었다”며 “특히 그들이 인공 일반 지능을 추구할 때”라고 말하면서 컴퓨터가 인간 두뇌의 힘과 일치한다는 뜨거운 논쟁을 불러일으키는 용어를 언급했다.
Kokotajlo는 “그들과 다른 사람들은 ‘빠르게 움직이고 파괴하는’ 접근 방식을 받아들였습니다. 이는 이렇게 강력하면서도 잘 이해되지 않는 기술에 필요한 것과 정반대입니다”라고 말했습니다.
OpenAI의 대변인 Liz Bourgeois는 “이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다”는 데 회사가 동의한다고 말했습니다. Anthropic과 Google의 담당자는 논평 요청에 즉시 응답하지 않았습니다.
직원들이 그러더군요 정부 감독 부재, AI 작업자는 기업에 책임을 물을 수 있는 “몇 안되는 사람”입니다. 그들은 “광범위한 기밀 유지 계약”으로 인해 어려움을 겪고 있으며 불법 활동에 중점을 두고 있으며 경고하는 위험이 아직 규제되지 않았기 때문에 일반적인 내부 고발자 보호가 “불충분하다”고 말했습니다.
이 서한은 AI 기업들이 투명성과 내부고발자 보호를 강화하기 위해 4가지 원칙을 준수할 것을 요구했습니다. 이러한 원칙은 위험에 대한 비판을 금지하는 계약을 체결하거나 시행하지 않겠다는 약속입니다. 현직 및 전직 직원이 우려사항을 제기할 수 있는 익명 프로세스를 구축하라는 요청, 비판 문화를 지원합니다. 그리고 “다른 프로세스가 실패한 후” 경보를 울리기 위해 기밀 정보를 공유하는 현직 및 전직 직원에 대해 보복하지 않겠다는 약속도 포함됩니다.
지난 12월 워싱턴 포스트(Washington Post)는 OpenAI의 고위 지도자들이 보복에 대한 두려움 CEO 샘 알트먼(Sam Altman)의 말 — CEO의 일시적인 해임에 앞서 경고. 최근 팟캐스트 인터뷰에서 전 OpenAI 이사회 회원인 Helen Toner는 작년 말 Altman을 CEO에서 해임하기로 한 비영리 단체의 결정 중 일부는 안전에 대한 솔직한 의사소통이 부족했기 때문이라고 말했습니다.
“그는 회사가 마련한 소수의 공식적인 안전 프로세스에 대해 부정확한 정보를 제공했습니다. 즉, 이사회가 이러한 안전 프로세스가 얼마나 잘 작동하고 있는지 아는 것이 기본적으로 불가능하다는 의미입니다.”라고 그녀는 말했습니다.TED AI 쇼” 5월에.
이 서한에는 AI의 대부로 불리는 요슈아 벤지오(Yoshua Bengio), 제프리 힌튼(Geoffrey Hinton) 등 AI 권위자들과 저명한 컴퓨터 과학자 스튜어트 러셀(Stuart Russell)이 지지를 보냈다.