으로 인공지능의 발전 진행되면 전문가가 안전하다고 생각하는 한계에도 도달합니다. OpenAI의 창립 멤버이자 ChatGPT의 창시자인 Elon Musk는 다른 AI 전문가들과 함께 사회에 어떤 위험이 닥칠 것인지에 대한 다소 놀라운 성명을 발표했습니다.
GPT-4는 마지막 안전한 표준으로 간주됩니다. 당분간 실험실에서의 치열한 AI 개발 경쟁은 돌이킬 수 없는 결과가 발생할 수 있는 경쟁으로 인해 통제 불능 단계에 접어들었습니다.
AI 채팅은 "사회에 위험"
모든 기술적 진보는 위험을 초래할 수 있지만, 이 분야의 일부 전문가들이 가지고 있는 예측은 놀라운 것입니다. 며칠 전 우리는 GPT-4와 ChatGPT에서의 구현 가능성에 대해 축하했지만 그 사이에 장벽이 있는 것 같습니다.
In 공개 서한 , Elon Musk와 AI 전문가 및 업계 임원 그룹이 전화 XNUMX개월간 개발 중단 OpenAI의 최근 출시된 GPT-4보다 더 강력한 시스템: "우리는 모든 AI 연구실에 최소 4개월 동안 GPT-6보다 강력한 AI 시스템 교육을 즉시 중단할 것을 호소합니다."
이러한 개발 중단을 요청한 이유는 그들이 사회와 인류에 심각한 위험을 초래한다고 간주되기 때문입니다. “고급 AI는 지구상의 생명 역사에 중대한 변화를 가져올 수 있으며 신중하고 자원을 가지고 계획하고 관리해야 합니다. 안타깝게도 이러한 수준의 계획 및 관리가 이루어지지 않고 있으며 최근 몇 달 동안 AI 연구실이 진입했습니다. 점점 더 강력해지는 디지털 마인드를 개발하고 배치하기 위한 통제 불능의 경쟁 아무도, 심지어 그들의 창조자조차도 이해할 수 없습니다. 안정적으로 예측하거나 제어 .
6개월의 휴식이 필요하다
인공 지능으로 구동되는 시스템을 개발하기 위한 경쟁은 참으로 많은 새로운 플레이어가 참여하는 새로운 붐이라는 점을 염두에 두고, 6개월간 모라토리엄 요청됩니다.
그 이유는 이 기술이 어떻게 진화할 수 있는지에 대한 일련의 질문에서 비롯되며, 그 중 일부는 터미네이터의 스카이넷에 더 가깝습니다. " 기계가 우리의 정보 채널을 선전과 거짓으로 넘치도록 내버려 두어야 합니까? 모든 작업을 자동화해야 합니까? 우리는 결국 우리를 능가하고, 우리를 능가하고, 구식이 되어 우리를 대체할 수 있는 비인간적인 마음을 개발해야 합니까? 위험을 감수해야 할까요 우리 문명의 통제력 상실 ?
이러한 두려움에 비추어 모든 AI 연구소는 다음을 수행해야 합니다. AI 시스템에 대한 교육을 최소 6개월 동안 즉시 중단 GPT-4보다 강력합니다. 사실, 모든 경우에 그러한 중단이 개인적으로 발생하지 않는다면 정부가 개입하여 모라토리엄을 도입해야 한다고 그들은 매우 시급히 촉구합니다.
AI 연구 및 개발은 오늘날의 강력한 차세대 시스템을 더 정확하고, 안전하고, 해석 가능하고, 투명하고, 강력하고, 정렬되고, 신뢰할 수 있고, 충실하게 만드는 데 다시 집중해야 합니다.