기업조회

본문 바로가기 주메뉴 바로가기

연구보고서 기본정보

인공지능 시대의 윤리적 쟁점 및 대응 방안

연구보고서 개요

기관명, 공개여부, 사업명, 과제명, 과제고유번호, 보고서유형, 발행국가, 언어, 발행년월, 과제시작년도 순으로 구성된 표입니다.
기관명 NDSL
공개여부
사업명
과제명(한글)
과제명(영어)
과제고유번호
보고서유형 report
발행국가
언어
발행년월 2020-04-20
과제시작년도

연구보고서 개요

주관연구기관, 연구책임자, 주관부처, 사업관리기관, 내용, 목차, 초록, 원문URL, 첨부파일 순으로 구성된 표입니다.
주관연구기관
연구책임자 이동진
주관부처
사업관리기관
내용
목차
초록 1. 서론 인공지능(artificial intelligence, AI)은 미래 사회의 핵심기술로서, 의료 및 금융산업에서부터 자율주행, 챗봇, 개인 도우미에 이르기까지 사회의 모든 측면에 점점 퍼져나가고 있다[1]. AI는 경제, 사회복지, 인권을 향상시켜 새로운 기술의 혜택을 누릴 수 있도록 도와줄 수도 있으나, 오용되거나 잠재적으로 해로운 방식으로 행동하여 다양한 윤리적 문제를 야기할 수 있다[1]. 예를 들어, 자율주행차의 트롤리 딜레마(trolley dilemma)는 위급한 상황에 누구를 살릴 것인가를 탐구하는 대표적 윤리 문제로서, 어린이를 포함한 승객 3명을 태우고 가던 자율주행차가 전방에서 횡단보도를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때 노인들과 승객들 중에 어떤 생명을 구하도록 설계할 것인지에 대한 문제이다[2]. 이외에도 AI의 신뢰성 문제(알고리즘의 조작 가능성 및 의사결정의 편향성), 인간과 AI의 상호작용 시 인지, AI의 일자리 대체 문제, AI의 개인 데이터 수집과 관련한 다양한 윤리적 쟁점들이 있다. AI의 부작용을 모두 막는 건 사실상 불가능하고, AI의 부작용을 최소화할 수 있도록 윤리적 대응체계 구축 및 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 기술적/법 제도적 대응이 요구된다[2]. 유럽위원회(European Commission), OECD, 영국, 싱가포르, 대한민국 등의 국가 및 국제기구는 정책 문서 초안을 의무화하는 AI에 관한 특별 전문가위원회를 개발함으로써 이러한 우려에 대응했다[4]. 이들 위원회는 AI 윤리에 관한 보고서 및 지침 문서를 작성했거나 보고하였다. 민간부문, 특히 비즈니스를 위해 AI에 의존하는 기업들도 비슷한 노력을 기울이고 있다. 2018년에만 Google 및 SAP와 같은 회사가 AI 지침 및 원칙을 공개했다. ACM(Association of Computing Machinery), Access Now 및 국제 앰네스티와 같은 전문 협회 및 비영리단체에서도 선언 및 권장 사항을 발표했다. 윤리적 AI에 대한 보고서 및 지침 문서는 비법률 정책도구로서 법적 구속력이 없지만 설득력이 있고, 입법 규범에 필적하는 특정 분야의 의사결정을 지원하고 실질적인 영향을 미치는 것으로 확인되었다[4]. 실제로 AI 원칙과 정책을 발행하는 데 있어 다양한 이해관계자들이 강렬한 노력을 기울이는 것은 AI 윤리적 지도성뿐만 아니라 AI 윤리를 형성하려는 강한 관심을 보여주기에 주목할 만하다. 2019년 9월까지 약 84개의 AI 윤리 가이드라인이 기업, 정부기관, 대학/연구소, 비영리조직 등을 통해 발표되었고, 이 중 88%는 2016년 이후에 출판되었다[4]. 본고에서는 발표된 AI 윤리 가이드라인의 공통된 윤리 지침들에 대해 살펴보고, 기술적/법 제도적 대응 방안에 대해 고찰해보고자 한다. ** 원문은 파일 다운받기를 해주세요 :-)
원문URL http://click.ndsl.kr/servlet/OpenAPIDetailView?keyValue=03553784&target=REPORT&cn=KOSEN000000000001552
첨부파일

추가정보

과학기술표준분, ICT 기술분류, 주제어 (키워드) 순으로 구성된 표입니다.
과학기술표준분류
ICT 기술분류
주제어 (키워드)