인공지능 ‘낙관론 vs 비관론’ AI 석학들의 엇갈린 시선
AI 4대 석학이 전망하는 AI의 미래
2024 노벨과학상에서 딥러닝의 선구자 제프리 힌턴(물리학상)과 데미스 허사비스(화학상)가 수상하며 AI의 기여를 증명했습니다. 이는 AI가 인류 지식 발전에 중요한 도구임을 나타냅니다.

AI의 미래는 불확실하며, 전문가들 사이에서도 의견이 다릅니다. 이 글에서는 'AI 4대 석학'의 전망을 살펴보겠습니다.
제프리 힌턴 “AI의 위험성에 대한 강력한 경고”
딥러닝의 대부 힌턴 교수는 AI의 발전 속도가 예상보다 빠르며 인류 멸종 가능성이 10~20%에 이른다고 경고합니다. 그는 정부 차원의 규제를 주장하며, AI 안전성 문제를 기업 자율성에 맡길 수 없다고 강조합니다.

얀 르쿤 “AI 발전을 향한 낙관론”
메타의 수석 AI 과학자 르쿤은 AI가 인간 지능과 큰 차이가 있으며, AGI 실현까지 시간이 필요하다고 주장합니다. 그는 AI가 인류 문제 해결에 기여할 것이라고 믿지만, 기술 위험을 과장하는 것이 발전을 저해할 수 있다고 경고합니다.

요슈아 벤지오 “AI, 기술이 아닌 학문으로서의 접근”
몬트리올 대학교의 벤지오는 AI의 위험을 잘못 설계 및 악용에 따른 사회적 문제로 바라보고 있습니다. 그는 AI를 기술이 아닌 학문으로 접근해야 하며, 투명성과 글로벌 협력이 필요하다고 강조합니다.

앤드류 응 “실용적 AI의 확산을 위한 노력”
스탠퍼드 대학교의 앤드류 응은 AI의 민주화를 강조하며, AI 기술의 교육과 접근성 향상을 주장합니다. 그는 AI 기술이 전 세계적으로 폭넓게 활용될 수 있어야 한다고 믿습니다.

우리는 무엇을 준비해야 하는가?

4대 석학의 의견은 다양한 스펙트럼을 보이며, AI의 미래에 대한 예측이 어렵다는 것을 보여줍니다. 힌턴과 벤지오는 규제를 강조하는 반면, 르쿤과 응은 과도한 규제에 우려를 표합니다. AI 기술에 대한 지속적인 관심과 이해가 필요하며, 이를 통해 잠재적 위험성에 대응할 수 있어야 합니다.
해당 기사는 GPT를 이용하여 요약한 내용입니다.