본문 바로가기

AI Policy & Trend

AI Safety News (24.04.28 ~ )

반응형

 

 

 

24.04.29

https://www.donga.com/news/Economy/article/all/20240429/124696715/1

 

“AI 안전한 사용 위해”… 美, 어벤저스 팀 결성

미국 정부가 인공지능(AI) 기술 확산에 따른 규제 공백을 메우고 안전한 AI 사용 방안을 마련하기 위해 빅테크 최고경영자(CEO)들을 모아 ‘AI 안전보안이사회(AI Safet…

www.donga.com

미국 정부가 인공지능(AI) 기술 확산에 따른 규제 공백을 메우고 안전한 AI 사용 방안을 마련하기 위해 빅테크 최고경영자(CEO)들을 모아 ‘AI 안전보안이사회(AI Safety and Security Board)’를 만들기로 했다. 샘 올트먼 오픈AI 최고경영자(CEO), 사티아 나델라 마이크로소프트(MS) CEO, 젠슨 황 엔비디아 CEO, 순다르 피차이 구글 CEO, 리사 수 AMD CEO 등이 참여하는 일종의 ‘AI 어벤저스’를 꾸린 것이다. 빅테크 주도의 AI 기술 발전을 지원하면서도 AI의 위험성에 따른 책임도 함께 지라는 뜻을 강조한 것으로 풀이된다.

미 국토안보부는 26일(현지 시간) “중요 인프라에 대해 안전한 AI 기술을 개발하고 적용하는 데 조언할 AI 안전보안이사회를 설립한다”고 밝혔다. 이번 이사회 설립은 지난해 10월 조 바이든 대통령이 서명한 AI 행정명령에 따른 것이다. 당시 바이든 대통령은 행정명령을 통해 국가안보나 경제안보, 공중보건 등에 심각한 위협을 초래할 수 있는 AI 시스템을 개발하는 기업은 정부에 해당 사실을 알리도록 했다. 이어 이번에 빅테크 수장들을 ‘AI 안전 자문역’으로 참가시킨 것이다.


이번 이사진에는 AI 산업에 관심이 많은 일론 머스크 테슬라 CEO 겸 소셜미디어 X(옛 트위터) 소유주, 마크 저커버그 메타 CEO 등은 포함되지 않았다. 미 인터넷 매체 액시오스는 “마요르카스 장관은 메타와 X를 포함한 소셜미디어 회사를 의도적으로 포함시키지 않았다”며 “이사진 명단은 지난해 5월 백악관에 초대된 AI 기업 CEO 명단과 광범위하게 겹친다”고 밝혔다.

 

 

24.04.28 

https://www.etnews.com/20240426000166

 

AI 안전성 확보하려면…대시민 교육 확대 필요

최근 생성형 인공지능(AI) 기술의 가파른 발전으로 인한 가짜영상, 이미지 ‘딥페이크’ 문제가 제기되면서, 이에 대응할 수 있는 대시민 교육의 중요성이 높아지고 있다. 선거 등을 앞두고 유명

www.etnews.com

최근 생성형 인공지능(AI) 기술의 가파른 발전으로 인한 가짜영상, 이미지 '딥페이크' 문제가 제기되면서, 이에 대응할 수 있는 대시민 교육의 중요성이 높아지고 있다.


선거 등을 앞두고 유명인이나 기업인 등을 중심으로 딥페이크 영상이 공유, 확산되는 것은 물론이고 일상생활에서도 악의적으로 AI를 활용하는 사례가 빠르게 늘고 있기 때문이다.

여성가족부가 발표한 '2022년 아동청소년 대상 성범죄 발생 추세와 동향 분석 결과'에서도 디지털 성범죄는 더욱 교묘해지거나 딥페이크 영상물 제작 범죄도 크게 증가한 것으로 나타났다.

피해자의 얼굴과 음란물을 합성하는 '딥페이크 영상물' 제작은 14건으로, 2019년(1건)보다 급증했다. 소셜미디어(SNS)와 디지털 기술에 능한 청소년 세대일수록 이러한 딥페이크 제작에 거리낌이 없는 실정이다.

AI 악용의 위험성이 커지면서 정부는 과학기술정보통신부를 중심으로 올해부터 본격적으로 AI 리터러시 교육과 정부지원사업에서 고위험 영역 과제 대상 AI 신뢰성 검·인증, AI 안전테스트 프레임워크 개발 등을 추진할 예정이다.

방송통신위원회에서도 딥페이크 근절을 위한 기업 대상 자율 규제를 강화해달라고 요청하기도 했다.

내달 21, 22일에는 한국과 영국 공동 주최로 'AI 서울 정상회의'를 열어 AI의 잠재적 위험성을 인식하고 AI 기술 개발과 활용에 안전장치를 마련할 계획이다.

이미 각국 정부는 AI 안전성을 높이기 위한 규제를 시작했다. 중국 정부가 가장 먼저 작년 1월부터 딥페이크 규제에 착수했고, 영국은 최근 딥페이크로 음란물을 만들기만해도 공유·유포 여부와 관계없이 처벌할 수 있다고 밝혔다.

그러나 전문가들은 이러한 규제가 기업의 알고리즘이나 처벌에 초점이 맞춰져 있는 점을 한계로 지적했다.

기업에선 생성형 AI 기술로 만든 영상이나 이미지 등에 워터마크 등의 이른바 '꼬리표'를 자발적으로 표시하고 있지만, 이용자 차원에서 악용하는 것은 막기가 어려운 실정이다.

AI 전문기업 대표는 “음성의 경우 원본과 합성 데이터를 사실상 구분하기 힘들다”며 “오픈AI의 영상 생성 AI 서비스 '소라'에서 보듯 영상도 곧 원본과 합성을 구별하기 어려워질 것”이라고 말했다.

김명주 서울여대 교수(국제인공지능윤리협회장)은 “AI 활용에 대한 좋은 점과 나쁜 점을 알 수 있도록 대시민 교육 강화가 필요하다”며 “학교는 물론이고 공공기관과 일반 직장에서도 AI 윤리교육을 병행해야 한다”고 말했다.

 

 

24.04.24

https://www.newsis.com/view/?id=NISX20240424_0002711874&cID=13003&pID=13100

 

'AI 서울 정상회의' 한 달 앞으로…韓·英 양국 장관 점검 나서

[서울=뉴시스]윤현성 기자 = 우리 정부가 영국과 함께 다음달 개최하는 AI(인공지능) 정상회의 준비 현황 점검에 나섰다

www.newsis.com

 

[서울=뉴시스]윤현성 기자 = 우리 정부가 영국과 함께 다음달 개최하는 AI(인공지능) 정상회의 준비 현황 점검에 나섰다.

과학기술정보통신부는 이종호 장관이 미셸 더넬런 영국 과학혁신기술부 장관과 24일 영상회의를 개최했다고 밝혔다.

 

한·영 정부는 각각 지난 12일 공식 보도자료를 배포하고 'AI 서울 정상회의'의 정상세션 및 장관세션의 참석자를 대상으로 초청을 추진하고 있다. 이번 면담은 5월21~22일로 예정된 'AI 서울 정상회의' 개최가 한 달 정도 남은 상황에서 지금까지의 준비 현황을 점검하고 향후 계획을 논의하기 위해 이뤄졌다.

AI 서울 정상회의는 지난해 11월 영국에서 개최된 'AI 안전성 정상회의'의 후속 회의다. 한·영이 공동 개최하지만 AI의 안전뿐만 아니라 혁신·포용성도 포괄적으로 논의하고자 하는 취지에서 공식 명칭을 'AI 서울 정상회의'로 변경했다.

아울러 과기정통부는 외교부와 함께 AI 서울 정상회의의 시너지 창출을 위해 정부, 산업계, 학계 등 다중 이해관계자가 참여하는 'AI 글로벌 포럼'도 5월22일 대면으로 개최할 계획이다.

 

양국 장관은 AI 서울 정상회의의 주요 성과물에 대해 논의하고 장관세션의 프로그램, 진행 방식, 민간 고위급 인사 초청 등을 점검했다. 과기정통부는 이와 함께 AI 글로벌 포럼이 성공적으로 개최될 수 있도록 영국의 협조도 요청했다.

이 장관은 "다음 달 우리나라에서 개최되는 AI 서울 정상회의는 글로벌 차원의 AI 규범과 거버넌스 정립에 있어 중요한 이정표가 될 것으로 기대한다"며 "정상회의를 함께 준비하고 있는 외교부와 협력을 강화하고 영국 정부와 긴밀히 소통하여 AI 서울 정상회의를 성공적으로 개최하겠다"고 말했다.

 

24.04.24

https://view.asiae.co.kr/article/2024042215582226286

 

[AI 안전성 위기]"韓, 더 늦으면 글로벌 진입도 어려워"…'룰 메이커' 되려는 EU·미국 - 아시아경제

"인공지능(AI)에 대한 규범을 마련하지 않으면 국내 기업들이 글로벌 시장에서 경쟁하기 어려워질 수 있습니다." 급속도로 발전하는 AI 기술에 안전장치를 마련해...

www.asiae.co.kr

 

우리보다 앞서 유럽연합(EU)은 일명 'AI법'을 준비해 2026년부터 본격 시행한다. ▲최소위험 ▲제한된 위험 ▲고위험 ▲수용불가 등 4가지로 AI 관련 위험을 분류하고 각각에 대한 규제를 담았다. 특히 제한된 위험은 챗봇, 딥페이크 위험이 있는 것을 대상으로 해 AI 생성 콘텐츠임을 밝히도록 했다. 인프라 관련은 고위험으로 분류됐는데 보안, 관리, 추적 시스템 등을 통해 투명성 의무를 부여했다. 수용불가는 인간의 잠재의식 조작, 생체정보분류시스템 관련 AI를 대상으로 하며 중대 범죄를 제외하고 원칙적으로 활용이 금지된다.

 

 

미국도 지난해 10월 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'을 마련했다. 미국 기업들에 개발 AI가 국가 안보나 경제 및 건강상 위험을 초래할 경우 이를 연방 정부에 통지하고 AI에 대한 안전 테스트 결과 및 주요 정보를 정부와 공유하도록 했다. 연방 정부 기관은 AI 활용 시 내용 공개, 부작용 검증 및 모니터링을 해야 한다.

 

김 회장은 "EU의 AI법은 겉으로 볼 땐 규제 일변도인 것 같지만 그 안에 진흥을 위한 항목도 따로 있다"며 "AI 관련 기술의 발전 속도가 빠르기 때문에 유럽의 AI법과 같이 우선 추상적으로 정의한 뒤에 시행세칙 등을 통해 구체적인 안을 마련하는 것이 바람직해 보인다"라고 했다.

 

 

유럽, 미국 등에서 AI와 관련된 규제를 본격 시작했다. 특히 영국과 미국은 AI 안전에 대한 지식과 정보 등 안전성을 점검하는 데 상호 협력하는 양자 간 협정을 맺어 협력도 추진하고 있다. 하지만 국내에선 법안 마련은커녕 국회 논의도 제대로 진행되지 않고 있다. AI기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 법률안)이 발의됐지만 국회에 계류 중이다. 21대 국회 임기가 종료되기 전 본회의를 통과하지 못하면 자동 폐기된다.

 

AI 스타트업도 사전 규제를 하는 것에 대해 경계했지만 기반 마련을 위한 입법에는 동감했다. 익명을 요구한 AI 스타트업 대표는 "그간 이뤄진 투자에 대해 AI의 경제적 가치를 입증해야 하는 시기인데 규제는 시장이 만들어지고 기업이 성장하기 전에 이를 무너뜨릴 수 있는 요인이 될 수 있다"면서도 "선허용 후규제, 민간 자율 점검 등의 정책 방향성이 필요하지만 다른 관점에서 AI 상용화에 법적·행정적 기반이 필요한 것이 사실이어서 이를 반영한 입법이 필요하다"고 했다.

 

국내 AI기본법 제정에 지체되는 상황에서 다음 달 21~22일로 예고된 한국·영국 정부 공동 개최 'AI 서울 정상회의'가 변곡점이 될 수 있다. 지난해 11월 영국에서 열린 'AI 안전성 정상회의' 후속 회의로 AI 안정성, 혁신 촉진 등을 논의하고 구체적 협력 방안을 공유한다. 김 회장은 "영국은 브렉시트로 유럽연합(EU)에서 탈퇴한 상황이어서 AI 관련 법 마련에서도 현재 우리와 마찬가지로 EU와 미국의 사이에 있다"라며 "양국이 유사한 상황에 놓여있기 때문에 보조를 맞출 수 있고 규제 방향, 산업 진흥에서 건설적인 회의도 가능할 것"이라고 했다.

 
 
 
 

 

 

반응형
LIST