http://www.itdaily.kr/news/articleView.html?idxno=211461
[인터뷰] “윤리와 기술의 밸런스가 올바른 ‘AI 신뢰성’ 만든다” - 아이티데일리
[아이티데일리] 오늘날 인공지능(AI)은 더 이상 영화 속의 이야기가 아니다. 이미 AI는 산업 분야를 막론하고 다양한 곳에서 서비스 품질을 높이고 혁신을 가속화하는 데에 활용되고 있다. 하지만
www.itdaily.kr
현재 상황
AI는 산업 분야를 막론하고 다양한 곳에서 서비스 품질을 높이고 혁신을 가속화하는데 활용되고 있음.
AI의 역할이 커질수록 AI가 이상을 일으켰을 때 발생할 사고 위험성도 높아지고 있다.
*AI 윤리의 5대 문제(편향성, 오류와 안전성, 악용, 개인정보보호, 킬러로봇)
믿을 수 있는 AI
씽크포비엘은 과기부, 정보통신기술협회(TTA)와 함께
신뢰할 수 있는 AI 개발 가이드 제작함
(EU에서도 발표)
목표 : AI 신뢰성과 관련한 국내 기술 수준을 높이고 산업계 성장을 지원하겠다.
방법 : AI 신뢰성 확보를 위한 기술 확보와 기반 조성, 안전한 학습용 데이터 마련, 개발된 AI에 대한 사회적 영향평가 실시 등 다양한 방면에서 추진
AI 신뢰성 구분
trustworthy 윤리적 관점에서의 신뢰성 : AI가 일반적으로 통용되는 사회 규범에 맞게 행동하는지, 중요한 순간에 윤리적이고 올바른 선택을 할 수 있는지를 의미함.
reliability 기술적 관점에서의 신뢰성 : AI가 지시에 따라 정상적으로 동작함으로써 원하는 목적을 달성할 수 있는지가 중요하게 여겨진다.
한가지 신뢰성을 만족했다고 두가지 신뢰성을 만족하는 것이 아님!
두가지 신뢰성을 만족하는 AI가 진짜 믿을 수 있는 AI이다.
핵심 요건 :믿을 수 있는 AI를 만드는 방법이 있는지해당 기업이 그 방법(기술)을 보유하고 있는지보유하고 있다면 그 방법을 잘 적용했는지를 검증할 수 있어야 함
근황 :다른 국가들은 인증 컨설팅 사업을 키우는 추세. AI 개발 과정에서부터 도와주고 결과물 수준에 따라 인증을 주는 형태국내의 경우과기부와 TTA가 가이드 제작 사업 추진 중 (링크)
다양한 산업 레퍼런스와 연구들을 검토해 믿을 수 있는 AI 제작 방법을 만들고, 모든 기업들이 이용할 수 있도록 배포한다면 국내 AI 산업의 수준이 전반적으로 증가할 것.
기대 효과:
AI 신뢰성 분야에서 전 세계를 리드할 수 있는 선도적인 입지 확보 가능
어려운 점 :
선행 사례를 찾기 어려운 점.
전세계 레퍼런스와 논문을 찾고, 국내 동향과 산업 분야에 따라 구분하고 재해석해서 실제로 적용가능한 수준으로 만들어야 함.
AI 개발 라이프 사이클에 맞춰 데이터와 모델, 인터페이스 구성 등 세부 항목에 맞춰 구체적인 제안과 방법들을 제시하고자 함.
향후 산업계 전반의 AI 신뢰성과 관련해 가장 필요한 것은?
AI 인증 컨설팅 산업의 성장은 자칫 AI를 검증하고 인증을 부여하기 위한 기반이 닦이지 않은 채 인증 비즈니스 측면에서의 성장이 먼저 이뤄지는 경우.
산업이 성장하기 위해서는 전문가가 필요하고 이를 양성할 수 있는 교육 기반도 많아져야 함.
AI 개발하는 엔지니어만큼이나 AI 신뢰성을 검증하는 엔지니어가 따로 있어야 할 만큼 전문성이 필요한 분야이기 때문.
WHY? 인공지능에 어떤 사고가 있을 수 있나
https://m.hankookilbo.com/News/Read/A2021111109400001524
고장난 인공지능은 무기처럼 위험하다
이번 칼럼에서는 인공지능(AI) 윤리의 5대 문제(편향성, 오류와 안전성, 악용, 개인정보보호, 킬러로봇) 중 AI의 오류와 안전성 문제를 이야기해 보고자 한다. 인공지능도 전자제품으로 개발되기
m.hankookilbo.com
- 2016년 미국 경비 AI 로봇이 16개월 된 아이를 넘어뜨리고 지나가 아이 다리 부상
- 2016년 중국 IT 전시회 교육용 로봇이 전시장 유리를 깨트려 주변 방문객 부상
- 2018년 미국 아마존 물류센터 AI 로봇은 곰 퇴치 스프레이 통을 찢어 유독물질 유출로 24명이 부상
원인은 모른다 = 인공지능은 블랙박스
인공지능의 처리 과정과 작동 원리를 정확히 이해할 수 없기 때문.
(2016년 알파고 개발자들 역시 알파고가 왜 그런 수를 뒀는지 알 수 없었다.)
인공지능을 설명할 수 없게 되면?
인공지능을 예측하기 더욱 힘들어지고, 인간이 인공지능을 컨트롤하기는 더더욱 어려워짐.
해결책?
- 설명 가능한 인공지능(XAI)을 적극 연구, 개발해야 함
인공지능이 내린 결정이나 답을 사람이 이해할 수 있는 형태로 설명하고 제시하는 기법.
- 출시 이후에도 사후 모니터링 시스템에 의해 오류와 안전을 지속적으로 점검하고, AI 제품과 서비스를 철저히 운영하고 관리하는 방안도 강구해야함
→ 이 역할을 한표협이 할 수 있다!
'금융 IT인으로 성장하는 중' 카테고리의 다른 글
[1일1뉴스] 국내 AI 인증 시험 AICE (0) | 2022.12.20 |
---|---|
[1일1뉴스]디지털 시대에 필요한 핵심 능력 (0) | 2022.12.19 |
[1일1뉴스] BC카드 데이터 기반 솔루션 기업 (0) | 2022.12.06 |
[1일1뉴스] KB국민카드 근황 (1) | 2022.12.05 |
[1일1뉴스] BC카드 수익 다각화 방안 (0) | 2022.12.02 |