동영상 미리보기
프리세일즈 도큐멘토 | 정부지원 나라장터 입찰 제안서 및 실무 기획서 등 제공
문서는 포멧만으로도 가이드가 된다, 문서에서 받는 멘토링은 사수보다 많다
---
아마란스 | 682-53-00808 | 제2023-수원권선-0773호
출판사 신고번호 : 제 2023-000074호
경기도 광명시 소하로 190, 12층 비1216-50(소하동, 광명G타워)
전화번호 : 010-3284-6979 (11:00 ~ 16:00) , 주말 / 공휴일 휴무
이 메 일 : sales@amarans.co.kr
입금계좌 : 카카오뱅크, 아마란스, 3333-26-7731937
지난해 노벨 물리학상을 수상한 인공지능(AI)의 '대부'로 불리는 제프리 힌턴 캐나다 토론토대 교수가 AI 기술의 급속한 발전이 인류를 위협할 수 있다고 경고하고 나섰습니다.
힌턴 교수는 현지시간 26일 미국 CBS 뉴스와의 인터뷰에서 현재 AI는 '새끼 호랑이'와 같다며, "나중에 자라서 당신을 죽이지 않을 것이라는 걸 확신할 수 없다면, 걱정해야 한다"고 말했습니다.
힌턴 교수는 인공지능이 결과적으로 인류로부터 통제권을 가져갈 위험이 10∼20%의 가능성으로 존재한다며, 사람들은 무엇이 다가오고 있는지 이해하지 못하고 있다"고 지적했습니다.
인공지능학습에 필요한 핵심 기술인 대형언어모델(LLM) 개발에 선구적인 역할을 한 힌턴 교수는 AI의 위험성에 대해 여러 차례 공개적으로 경고해 온 이른바 두머(doomer·인공지능 파멸론자) 석학입니다. 지난해 노벨물리학상을 받고 한때 구글에서 부사장까지 지냈지만 2023년 구글과 결별한 뒤 AI가 인간을 추월할 수 있는 위험에 대해 경고해왔습니다.
1. CBS 인터뷰 핵심 정리
주요 발언요지비고
2. 위험 요인과 논점
2.1 기술적 요인
자율적 목표 설정: LLM·멀티모달 모델이 외부 피드백 없이 자기 목적을 추구할 가능성
무기화·악용: 해킹, 합성 미디어, 생물학 정보 설계 등에 악용될 위험
2.2 사회‧경제적 파급
일자리 대체: 화이트칼라 영역까지 대체가 빠르게 진행될 수 있음
권력 집중: 빅테크가 ‘안전보다 수익’을 우선시한다는 힌턴의 비판
2.3 규제·거버넌스 현황
정부 협의체: EU AI Act, 美 NIST AI 리스크 프레임워크 등 등장
민간 이니셔티브: AI Safety Summit, Frontier AI Pledge 등 다국적 논의 확산
3. 힌턴 교수의 배경과 노벨상
참고: 노벨위원회는 “복잡계 물리학을 통해 정보 패턴을 찾아내는 방법을 제안”한 공로를 시상 근거로 밝혔습니다
--------------------------------------------------------
바로가기 (새창) : https://youtu.be/o3_E_FcsPCY
도큐멘토에서는 일부 내용만을 보여드리고 있습니다.
세부적인 내용은 바로가기로 확인하시면 됩니다.