뉴스 스크랩

24. 06. 18. / 'AI 통제력 상실 막는다' 네이버, AI 위험 대응 체계 발표

하얀활자중독 2024. 6. 18. 17:34

https://n.news.naver.com/article/011/0004353957

 

'AI 통제력 상실 막는다'…네이버, AI 위험 대응 체계 발표

네이버가 국내 최초로 초거대 인공지능(AI)에 대한 통제력을 상실하는 상황을 방지하기 위한 대응 체계를 발표했다. 네이버는 각국 정부·기업과 소버린 AI를 공동 개발하는 과정에서 문화적 다

n.news.naver.com

 

네이버 ASF(AI Safety Framework):
AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식, 평가, 관리하기 위한 대응 체계

AI 시스템이 초래할 수 있는 위험 정의 
1. 통제력 상실 위험 -> 'AI 위험 평가 스케일
현존 최고 성능의 AI 시스템 = '프런티어 AI'로 정의
프런티어 AI의 경우에는 3개월마다 위험 평가를 수행

2. 악용 위험 -> ' AI 위험 평가 매트릭스'  
AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리

 

 

네이버가 AI 위험 대응 체계를 발표했다.

5월 21일 'AI 서울 정상회의'에서 '프런티어 AI 안전 서약'에 합의한 후 그 연장선상인 듯하다.

버뜨, 뉴스기사로만 접했을 땐 대부분 추상적인 내용이라 

실질적으로 어떻게 적용될 것인지는 조사를 더 해봐야 알 수 있을 것 같다. 

 

오픈AI도 그렇고, 그 전부터 AI의 위험성과 통제에 대한 얘기는 꾸준히 나오고 있다.

AI 발전속도에 비해 법이나 제도가 잘 못 따라오고 있다는 게 큰 문제.

특히, 윤리와 관련된 부분은 정비가 많이 미흡해서 걱정스럽기까지 하다.

(하물며, 배운지 몇 개월 안 된 나조차 데이터를 다루면서 윤리적인 부분에 부딪힐 때가 많다)

 


 

오늘의 키워드 '소버린 AI'

"네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린(자주적인) AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다."

 

소버린 AI = 국가나 기업이 자체적인 인프라와 데이터를 활용하여 독립적인 AI 역량을 구축하는 것

자체적인 AI 인프라 보유해 특정 국가, 기업의 영향력에서 벗어나 독립적으로 기술을 발전시키고 AI 주권을 지킬 수 있음

 

지난 2월, 엔비디아 젠슨 황 CEO가 인터뷰에서 언급을 한 바와 같이 전세계적인 이슈로 떠오르고 있는 개념이다.

IT 강국이라는 한국에서 '소버린 AI'에 대한 관심과,, GPU와,, AI 분야 인재가 없다는 것은,, 매우 아쉬움,,,

 

파인튜닝하면서 만들면 안 되나? 하는데 그것도 힘들 것 같음.

프리 트레이닝 때 자국의 데이터를 집어 넣어야 퀄리티 높은 AI가 나온다고 한다.

 


 

 

같이 보면 좋을 소버린 AI 관련 기사 추가

 

https://www.epnc.co.kr/news/articleView.html?idxno=241171

 

전문가들이 입 모아 외친 ‘소버린 AI’…이유가 뭘까

[테크월드뉴스=양승갑 기자] 지난 5일 연세대학교에서 진행된 ‘대한민국 이동통신 40주년 기념 토론회’에서는 정보통신기술(ICT) 산업 생태계 청사진 구축을 위한 의견이 제시됐다.특히 인공지

www.epnc.co.kr

 

https://news.sbs.co.kr/news/endPage.do?news_id=N1007686503&plink=SHARE&cooper=COPY

 

[D리포트] "동해는 국제적으론 일본해"…소버린 AI 왜 필요하나요?

[젠슨 황/엔비디아 CEO : 모든 나라는 자신들만의 인공지능을 만들 수 있어야 합니다. 이것이 바로 '주권 AI'라는 개념이 등장한 이유입니다.] 지난 2월 엔비디아 CEO 젠슨 황은 한 대담 자리에서 세

news.sbs.co.kr