당신은 주제를 찾고 있습니까 “인공 지능 인권 – [코지의 두근두근 AI학습 5화] AI(인공지능), 꿈의 기술인가 인권침해 기술인가“? 다음 카테고리의 웹사이트 https://you.maxfit.vn 에서 귀하의 모든 질문에 답변해 드립니다: https://you.maxfit.vn/blog/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 LG CNS 이(가) 작성한 기사에는 조회수 29,182회 및 좋아요 149개 개의 좋아요가 있습니다.
인공 지능 인권 주제에 대한 동영상 보기
여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!
d여기에서 [코지의 두근두근 AI학습 5화] AI(인공지능), 꿈의 기술인가 인권침해 기술인가 – 인공 지능 인권 주제에 대한 세부정보를 참조하세요
LG CNS 사회공헌프로그램 코딩지니어스의
생각만으로도 두근두근한, 코지와 AI 학습하기 제 5화!
AI와 강쥐가 대격돌합니다!
AI는 과연 우리의 미래를 밝게 해줄 꿈의 기술일까요?
아니면 우리를 감시하고 차별하는 인권침해 기술일까요?
AI기술이 인권침해 기술이 되지 않도록 하려면, 우리는 어떤 노력을 해야 할까요?
우리 모두 생각해봐요~
본 음성은 인공지능 성우 서비스 타입캐스트에서 제작되었습니다.
인공지능 성우 상도, 하은
https://typecast.ai/
https://www.youtube.com/watch?v=B2U8ZIopCnI
2. 써에이스쇼 – AI가 세상을 지배할 것인가? (인공지능의 한계와 위험)
https://www.youtube.com/watch?v=Ttv5PuxU0Is
3. 이슈텔러 – 인공지능은 정말 인류를 멸종시키려는 걸까? AI가 인류를 공격하는 방법과 이유!
https://www.youtube.com/watch?v=GQussEDXr0E
인공 지능 인권 주제에 대한 자세한 내용은 여기를 참조하세요.
AI에게 인간의 권리 부여해도 될까 < 테크 < 기사본문
독립적 개체로서의 인공지능사회 각 분야에서 AI의 역할이 늘어날수록 이들을 … 하지만 AI의 인격이 보편적으로 인정될 경우 소피아의 경우처럼 AI에게 인권을 보장 …
Source: www.aitimes.com
Date Published: 10/12/2021
View: 1436
지능정보사회의 인공지능과 인권 – 한국학술지인용색인
이 글은 지능정보사회에서 인공지능의 발전과 혁신에 따른 인권의 성찰을 추구한다. 지능정보사회는 빅데이터와 딥러닝을 기반으로 하는 인공지능기술을 핵심으로 한다 …
Source: www.kci.go.kr
Date Published: 12/12/2022
View: 2782
[2020.07] – AI도 차별을 하나요? – 국가인권위원회
데이터 분석과 알고리즘을 통해 아무런 규칙이나 패턴이 없어 보이는 난제에서 법칙을 찾아 답을 내놓는 것, 인공지능. 우리 삶 가까이에 온 인공지능 기술은 인권에 …
Source: humanrights.go.kr
Date Published: 9/7/2022
View: 1196
인권위, ‘AI 개발 인권 가이드라인’ 마련… “인간 존엄성 보장해야”
국가인권위원회가 인공지능(AI) 개발과 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위해 ‘인공지능 개발과 활용에 관한 인권 가이드 …
Source: biz.chosun.com
Date Published: 1/14/2022
View: 2639
인공지능에 인권교육을 [뉴스큐레이터] – 한겨레21
2022년 5월17일 국가인권위원회(위원장 송두환·이하 인권위)가 인공지능(AI) 개발·활용 과정에서 발생 가능한 인권침해를 방지하기 위해 ‘인공지능 개발과 …
Source: h21.hani.co.kr
Date Published: 9/29/2021
View: 6044
고도화·보편화하는 AI…인권침해 방지 관련법은 부재 | 연합뉴스
(서울=연합뉴스) 윤우성 기자 = 인공지능(AI) 기술이 고도화되고 활용 영역도 넓어지는 등 보편화하면서 인권침해 우려도 커지고 있어 제도 마련…
Source: www.yna.co.kr
Date Published: 10/10/2021
View: 3922
“AI 개발·활용 때 인간 존엄성 보장돼야”…인권위 가이드라인
인권적 관점서 AI 정책 수립·이행 권고 [촬영 정유진] 국가인권위원회가 인공지능(AI) 개발과 활용 과정에서 인간의 존엄성과 기본권이 보장되도록 …
Source: m.dongascience.com
Date Published: 4/7/2021
View: 4638
인권위, AI 개발과 활용시 인권침해 방지 가이드라인 마련
국무총리에 AI 정책 수립 및 법령 제개정 권고 국가인권위원회가 인공지능(AI) 개발과 활용 과정에서 인권 침해와 차별을 방지하기 위한 가이드라인을 …
Source: www.seoul.co.kr
Date Published: 3/19/2021
View: 8940
“인공지능 개발·활용 때 인권침해 최소화”‥인권위 가이드라인
국가인권위원회가 인공지능을 개발하고 활용하는 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위한 가이드라인을 마련해, 정부에 준수할 …
Source: imnews.imbc.com
Date Published: 2/17/2021
View: 8181
“AI 개발시 인권침해·차별 방지해야”…인권위, 정부에 개선 권고
인공지능(AI) 개발 및 활용 과정에서 인권침해와 차별을 방지하기 위해 법령을 제·개정할 필요가 있다는 국가인권위원회의 권고가 나왔다.
Source: www.news1.kr
Date Published: 11/13/2021
View: 7450
주제와 관련된 이미지 인공 지능 인권
주제와 관련된 더 많은 사진을 참조하십시오 [코지의 두근두근 AI학습 5화] AI(인공지능), 꿈의 기술인가 인권침해 기술인가. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.
주제에 대한 기사 평가 인공 지능 인권
- Author: LG CNS
- Views: 조회수 29,182회
- Likes: 좋아요 149개
- Date Published: 2020. 9. 7.
- Video Url link: https://www.youtube.com/watch?v=XRapWaZ1Q2k
AI에게 인간의 권리 부여해도 될까
▲AI 기술 개발에 경계심을 가지는 동시에 많은 투자와 지원이 이루어지고 있다(출처=맥스픽셀)
인공지능에 대해 사람들은 항상 다소 경계하는 태도를 취한다. 하지만 인공지능이 현대를 살아가는 우리에게 큰 화두임을 부정할 수는 없다. 앞으로 우리가 살아가며 AI가 인류의 발전에 많은 기여를 할 것이라는 사실도 말이다. 그 때문에 AI 기술 개발에 대해 경계심을 가지면서도 동시에 이에 대해 많은 투자와 지원이 이루어지고 있는 게 현실이다.
독립적 개체로서의 인공지능
사회 각 분야에서 AI의 역할이 늘어날수록 이들을 독립적 개체, 또는 주체로 인정해야 하는가의 의문도 커질 수밖에 없다. 과연 인공지능에게 법적 ‘인격’을 인정해야 하는가? 이는 인공 지능 기술이 처음 탄생했을 때부터 줄기차게 제기되어 온 중요한 문제다.
필리핀 매체 래플러의 한 기사는 우리가 생물학적 인간이 아닌 개체에게 법인격을 부여한 사례는 과거에도 있었다고 지적한다. 미국에서는 기업체들도 발언의 자유와 종교의 자유를 인정 받고 있으며, 뉴질랜드의 경우 숲에 법적 인간의 지위를 부여한 사례가 있다는 것이다. 이런 전례를 볼 때, 인공지능이 법적으로 ‘인격’으로 분류된다고 해서 놀랄 일은 아니라는 게 기사의 논지였다.
예를 들어 사우디 아라비아에서는 소피아(Sophia)라는 이름의 로봇이 시민권을 받자 페미니스트들이 “로봇도 사람 대접을 받는데 사우디 여성은 인간 이하의 대접을 받고 있다”며 분개하기도 했다.
하지만 AI의 인격이 보편적으로 인정될 경우 소피아의 경우처럼 AI에게 인권을 보장해야 하는 것 외에도 여러 가지 변화가 생길 수 있다. AI의 인격을 인정할 경우 인간의 존엄성이 훼손될 수도 있다고 래플러의 기사는 지적한다. 사우디 아라비아와 마찬가지로 성별, 계층 간의 차별이 여전히 존재하는 국가들에서는 로봇이 일부 인간들보다 더 많은 권리를 갖게 되며 생기는 사회적 소요가 분명 있을 것이라고 말이다.
AI에게 인간과 동일한 권리 부여하면 어떤 일이 일어날까
이처럼 일부 시민들의 반발이 있을 수 있다는 것 외에도, AI에게 인간과 동일한 권리를 부여할 경우 선거 등에서 부정이 생길 수도 있다. 모든 AI 개체에게 투표권이 주어진다면, AI 유권자 수가 비약적으로 늘어날 것이고 결국 AI의 선택이 선거의 결과를 좌우할 수 있게 되어 무척 위험해진다. 설상가상으로 테크놀로지를 악용해 투표 결과를 조작하려는 후보가 나올지도 모른다. 이런 상황에서 민주주의를 지속하기란 어려울 것이다.
더 나아가 AI가 세상을 지배하는 영화 속 시나리오가 현실이 될 지도 모른다. AI가 똑똑해 질수록 인간은 열등한 존재, 하위 계층으로 전락하게 될 것이다. 우수한 지적 역량에 법적 권리까지 손에 넣은 AI는 인간을 뛰어 넘고 인간 사회를 지배하게 될 가능성이 무척 높다.
게다가 로봇이나 AI는 병에 걸리지도, 인간처럼 신체 및 정서적으로 취약하지도 않기 때문에 영원히 살며 부를 축적할 수 있다. 이로 인해 AI의 사회적 위상은 올라갈 것이고, 그렇게 되면 인간이 다시 사회와 문명의 주인 자리를 돌려받기란 어려울 것이다.
AI의 인간화
현재 많은 과학자가 AI를 보다 ‘인간과 유사하게’ 만들기 위해 노력 중이다. 오늘날 로봇은 아직까지 완벽하게 인간의 신체적, 지능적 역량을 따라잡지 못했기 때문이다. 아마존의 AI 리크루터 개발은 이러한 현상의 한 예라고 볼 수 있다. 아마존의 목표는 인간과 같은 사고 회로를 통해 의사 결정을 내리고, 인력을 리크루팅 하는 AI 직원을 만드는 것이다.
영국의 웹사이트 더 레지스터의 한 보고서에 따르면, 이 AI 리크루터는 처음에는 지원자들이 낸 이력서를 보고 채용 결정을 내렸다고 한다. 하지만 놀랍게도 시간이 지날수록 이 AI 리크루터는 성차별적 고용 행태를 보였다고 한다. 남성 지원자들의 이력서에 있는 ‘경영’ ‘리더’ ‘획득’과 같은 단어를 더욱 긍정적으로 평가하고, 반대로 ‘여성’이라는 단어에는 더 부정적으로 반응했다는 것이다.
▲AI를 교육한 인간 개발자에 따라 다른 변화가 생긴다(출처=픽사베이)
AI 리크루터는 의사 결정을 내릴 때 남성 지원자들을 선호하는 모습을 보였다. 이와 같은 성차별적 고용 행태는 만약 기업에서 AI 리크루터를 상용화하게 될 경우 큰 문제가 된다. 더 레지스터의 보고서에 따르면, AI 리크루터의 이러한 특성은 AI에게 피딩한 정보 때문일 가능성이 높다. 애초에 AI가 보고 학습한 데이터가 기존 테크놀로지 기업들의 채용 데이터였고, 대부분 테크놀로지 기업들이 남성 지배적 문화를 지니고 있기 때문이다. 어쨌든 아마존은 AI 리크루터가 성차별적 고용 행태를 보이자 프로젝트 자체를 중단했다.
결국 AI 테크놀로지의 페르소나는 그 AI에 피딩한 데이터의 성격 및, AI를 교육한 인간 개발자가 누구냐에 따라 달라진다는 이야기다. 따라서 만일 AI에게 인간과 같은 권리를 부여한다면 그 권리를 행사하는 AI의 태도 역시 AI 개발자나 유저에 의해 결정된다는 결론이 나올 수 있다. 만약 AI 기술이 착취적이고, 도덕적 기준이 제대로 정립되지 않은 개개인의 손에 들어가고, 그런 AI가 인간과 같은 법적 권한을 갖게 된다면 이는 심각한 사회 문제를 야기할 수도 있다.
AI에 대해 비판적 시각을 가진 이들의 말에도 일리가 있었던 셈이다. 적어도 아직까지 인간은 AI를 인간과 동등한 개체로 받아들였을 때 발생할 결과들을 해결할 준비가 되지 않은 듯하다. AI에게 일반적인 법인격을 부여할 것이라면, 동시에 그로 인해 발생할 사회적 여파에 대처하고 인간의 권리를 보호할 다른 장치도 함께 마련되어야 할 것이다.
논문 인용하기 닫기
이 글은 지능정보사회에서 인공지능의 발전과 혁신에 따른 인권의 성찰을 추구한다. 지능정보사회는 빅데이터와 딥러닝을 기반으로 하는 인공지능기술을 핵심으로 한다. 지능정보사회는 정보통신기술을 활용한다는 점에서는 지식정보사회와 유사하지만, 기계학습을 통하여또 다른 지식을 생성하여 스스로 진화할 수 있는 인공지능기술의 혁신에 도달했다는 점에서다르다. 인공지능은 사람다운 삶을 구가할 수 있는 여유로운 시간과 공간을 창출할 수 있다. 인간의 육체노동은 물론 정신노동까지 대체하는 기술의 구현이 가능해졌기 때문이다. 청소로봇은 가사를 도와주며, 사물인터넷 보안시스템은 안전한 생활을 보장해 준다. 무인자율자동차는 운전을 대행해 주고, 소셜로봇은 비서와 친구 역할을 수행한다. 이러한 인공지능의 유형에는 연결형, 융합형, 변환형이 있다. 연결형은 인간 보조적인 기능 중심의 약한 인공지능이며, 융합형은 인간 수준의 역할 수행이 가능한 강한 인공지능이고, 변환형은 자가학습 방식의 자율 진화가 가능한 인간을 넘어설 수 있는 초인공지능을 의미한다. 인공지능과 인권의 관계에서 연결형은 자유권과 평등권, 연대권을 침해할 가능성 낮으며, 융합형은 보통 이상의 침해가능성이 있고, 변환형은 비교적 높은 수준의 인권침해 가능성을 가진 것으로 판단할 수 있다. 인공지능은 생활의 편리함과 고도의 안정성을 제공할 수 있다. 인공지능은 인간의 우연적 출신 요소들에 의한 차별과 격차를 크게 할 수도 있다. 인권을 신장하는 인간 친화적인 인공지능이 가능하도록 유념해야 할 시대이다.
This paper pursues to reflect on human rights according to development and innovation of artificial intelligence(AI). AI techniques are at the core of an intelligent information society based on big data and deep learning. An intelligent information society is similar to a knowledge information society in view of information communication technologies, but it is different from that it has a self evolution capability. AI makes for a comfortable time and space in behalf of a humanlike life because it is possible to embody substitute techniques for labors in body and soul. A clean robot assists housework, Internet of things security system guarantees a safe life, driverless autonomous vehicle drives a car replace for driver, and social robot takes a role of secretary and friend. Types of AI are connection, convergence, and transformation styles. A connection type is a weak AI for support for human, convergence type is a strong AI in level of human capacity, and transformation type is a super AI beyond human. In aspects of a violation of human rights, A connection type has low, convergence type has middle or more, and transformation type has high risks. AI can provide many utilities for decent lives and conveniences in elevated level, and cause discriminations and gaps originated in accidental elements. This time is a pivotal era for making human friendly AI.
국가인권위원회 인권 웹진
인터넷 쇼핑몰의 한 고객이 몇 달 뒤 어떤 물건을 얼마만큼 주문할 것인지에 대한 예측을 할 수 있을까? 데이터 분석과 알고리즘을 통해 아무런 규칙이나 패턴이 없어 보이는 난제에서 법칙을 찾아 답을 내놓는 것, 인공지능. 우리 삶 가까이에 온 인공지능 기술은 인권에 직접적인 영향을 미치는 분야에서도 활용되기 시작했다.
인공지능의 출현
사람들은 미래를 알고 싶어 한다. 앞으로 일어날 일을 궁금해하는 것은 어찌 보면 인간의 당연한 욕망이다. 예전에는 주술 같은 비과학적인 방법으로 미래를 예측하려 했지만 오늘날은 수학과 과학, 통계학의 힘으로 어느 정도 정확한 예측이 가능하다. 기계가 미래를 정교하게 예측하고 때로는 인간과 유사하거나 더 뛰어난 지능을 갖추어 인간에게 도움을 주게 되었으니, 바로 인공지능(Artificial Intelligence, AI)의 등장이다.
인공지능의 개념은 다양하지만 대체적으로는 ‘인간의 지적 능력을 기계로 구현하는 기술’로 정의한다. 사실 인공지능이라는 단어가 등장한 것은 꽤 오래전의 일로, 1950년대로 거슬러 올라간다고 한다. 그러다가 2000년대 들어 ‘딥러닝’(Deep Learning)’ 즉 인공지능이 방대한 데이터를 스스로 학습하여 추론을 얻는 ‘학습 기반 인공지능’이 등장하여 세상을 놀라게 하고 있다. 대중적으로 널리 알려진 인공지능은 뭐니 뭐니 해도 2016년 우리나라의 이세돌 9단과 겨루어 승리한 바둑 인공지능 알파고(AlphaGo)다. 알파고는 인간이 입력한 바둑 법칙에 따라 바둑을 두는 것이 아니라 기존 바둑기보를 학습하거나 심지어는 자기 자신과의 대국을 통해 실력을 향상시킨다. 사실 알파고는 여러 가지 버전이 있는데, 최신 버전인 ‘알파고 제로’는 이세돌 9단과 겨루었던 ‘알파고 리’와 싸워 100전 100승을 거두었다고 하니 그 기술의 발전상이 실로 놀라울 뿐이다. 인공지능은 이제 스마트폰에 장착된 음성인식비서, 인터넷 쇼핑몰의 개인 맞춤형 정보 추천 등 우리 일상에서도 폭넓게 접할 수 있게 되었다.
인공지능에 나타난 인권 문제
최근 인공지능이 활용되는 영역을 보면 특이한 점이 있다. 기업의 신입직원 면접이나 심지어 범죄자의 재범가능성 판단처럼 사람의 삶과 인권에 직접 영향을 미치는 분야에 인공지능이 활용되기 시작한 것이다. 국내 대기업들이 인공지능 면접을 도입한다는 것은 이미 널리 알려져 있으며, 미국 일부 주에서는 범죄자의 개인적 배경이나 기존 전과를 분석하여 재범가능성을 판단하고 형사재판에 반영하는 콤파스(COMPAS) 시스템을 활용 중이다.
사실 이러한 사례가 나타나게 된 가장 큰 배경은 인간이 가진 편향성이다. 인간의 판단이나 의사결정은 객관적이지 않다. 사람들은 종종 기존의 친분관계나 고정관념 같은 다양한 요인에 의해 공평하지 않은 결론을 내리곤 한다. 심지어 최근 밝혀진 바에 따르면 인간은 자기 스스로도 잘 모르는 무의식적 요인에 좌우되어 판단을 내리는 경우도 많다고 한다. 이를 인지편향(cognitive bias)이라 부른다. 외국 연구 사례 중 하나를 소개하면 법관들이 가석방 심사를 할 때 법리에 따라 공정한 판단을 내리는 게 아니라 맛있는 간식을 먹은 직후에 허가 비율이 높아지고 공복일 때에는 그 반대였다고 한다. 이러한 이유에서 인간의 편견을 극복하고 데이터와 알고리즘에 기반하여 객관적이고 정확한 판단을 내리는 인공지능을 널리 활용해야 한다는 목소리가 높아지고 있다.
그런데 인공지능조차도 인간과 유사한 편향이나 오류, 차별적 판단을 내린다는 주장이 최근 제기되고 있다. 그 원인으로는 인공지능 시스템을 개발할 때 개발자의 이념이나 사상이 암묵적으로 반영되는 점, 그리고 인공지능이 학습하는 데이터에 사회적으로 누적된 편견이나 차별적 요소가 이미 들어있고 인공지능이 그러한 편견을 그대로 학습한다는 점이 지적된다.
대표적 사례가 미국의 전자상거래 기업 아마존(Amazon)의 인공지능 지원자 이력서 검증 시스템이다. 시범 운영을 해보니 여성 지원자들에게 더 많은 감점을 주는 방식으로 여성을 차별했는데, 알고 보니 시스템이 학습한 지원자 이력서에 남성 지원자 정보가 압도적으로 많았다는 식의 차별적 요인이 내재되어 있었다. 아마존은 이 시스템의 활용을 중단했다.
인공지능이 가지는 문제점은 또 있다. 앞서 거론한 알파고는 인간 바둑 최고수를 상대로 기묘한 수를 두어 승리를 거뒀지만 정작 왜 그렇게 바둑을 두었는지 인간에게 설명할 수는 없었다. 사람이 자신의 무의식적 행동을 나중에 논리적으로 설명하기 어려운 것과 같다. 학습기반 딥러닝 인공지능은 인간의 인지범위를 넘어서는 뛰어난 판단을 내릴 수 있으나 정작 어떠한 이유와 논리에서 그러한 판단을 내렸는지 알기 어렵다는 모순을 지닌다. 이를 인공지능의 불투명성 혹은 ‘블랙박스 이슈’라고 부른다. 게임에 이기는 것이 목적이라면 큰 문제는 되지 않을 것이다. 그러나 인공지능이 인간의 입사면접이나 형사재판에 개입하여 판단을 내린다면, 왜 그러한 판단을 내렸는지를 인간에게 설명할 수 있어야 한다. ‘설명 가능한 인공지능’이 필요하다는 주장이 나오는 이유다.
인공지능과 인권 기준
인공지능 활용으로 인한 인권침해 문제가 나타날 수도 있다는 지적에 따라, 인공지능에 대해서도 인권 기준이 필요하다는 주장도 제기된다. 물론 인공지능에 의한 인권침해 방지를 명목으로 섣부른 기준과 규제를 적용하면 과잉대응이 된다는 우려도 있으나, 정반대로 인공지능으로 인한 위험이 닥치기 전에 선제적으로 인권과 윤리 문제에 적극 대처해야 한다는 주장 또한 힘을 얻고 있다.
주요한 국제기구와 국가들은 인공지능 개발과 활용에 있어 인권 존중과 보호 기준을 마련해야 한다는 데 지지를 표한다. 유엔 의사와 표현의 자유 특별보고관 데이비드 케이(David Kaye)는 2018년 국가와 기업은 인공지능 기술 사용으로 인해 인권에 부정적 영향이 발생하지 않도록 할 의무가 있다는 내용의 보고서를 발표했다. 유럽연합(EU), 경제협력개발기구(OECD), 주요 20개국(G20) 같은 국제기구들도 앞 다투어 인공지능과 인권 및 윤리에 대한 기준을 발표했는데, 크게 ① 인공지능의 개발과 활용에 있어 인권과 인간 존엄성에 대한 존중을 최우선적인 가치로 할 것 ② 인간의 다양성을 존중하고 인공지능으로 인해 차별을 조장하거나 지속하지 말 것 ③ 인공지능의 판단이나 결과에 대해 인간이 이해하고 설명을 받을 수 있어야 하고(투명성 혹은 설명가능성), 인공지능의 판단이나 결정에 대해 책임을 질 수 있는 주체와 절차를 명확히 할 것(책임성) ④ 인공지능은 대량의 데이터, 특히 개인정보 활용과 학습에 기반하므로 그 과정에서 인간의 프라이버시와 개인정보 침해가 발생하지 않도록 할 것 등의 내용을 담고 있다.
지난 2019년 11월 20대 국회에서 「인공지능산업 진흥에 관한 법률안」이 발의됐다. 이 법안은 인공지능 산업의 경쟁력 제고와 지원 조치들을 담고 있지만 인공지능에서의 인권 보호를 위한 내용은 포함하고 있지 않다. 허나 앞서 살펴본 것처럼 인공지능과 인권 문제는 그 시스템을 개발하고 데이터를 학습하는 단계에서부터 체계적으로 대응할 필요가 있으므로, 국가인권위원회(이하 인권위)는 이 법률안에 인공지능의 설계, 개발, 활용 단계에 있어서의 인권 보호 규정이 포함될 필요가 있다고 판단했다. 이에 인권위는 인공지능에 대한 국제적 논의들을 적극 반영해 2020년 4월 2일 상임위원회를 통해 「인공지능산업 진흥에 관한 법률안」에 인권 기준을 보완할 필요가 있다는 의견을 표명했다. 이 법안은 20대 국회 회기 종료와 더불어 폐기되긴 했으나 새롭게 출범한 21대 국회에서도 인공지능 활용에 대한 많은 논의가 이루어질 것으로 예상되는바, 그 과정에서 인권 존중이라는 대전제가 늘 최우선으로 고려될 수 있기를 희망하여 본다.
김민섭 님은 국가인권위원회 인권정책과에서 일하고 있습니다.
고도화·보편화하는 AI…인권침해 방지 관련법은 부재
2021 국가인권위원회 인권상황보고서…”인공지능 인권존중 원칙 담은 법률 필요”
국가인권위원회 [촬영 안 철 수]
(서울=연합뉴스) 윤우성 기자 = 인공지능(AI) 기술이 고도화되고 활용 영역도 넓어지는 등 보편화하면서 인권침해 우려도 커지고 있어 제도 마련이 필요하다는 국가인권위 지적이 나왔다.
인권위는 22일 발간한 ‘2021 국가인권위원회 인권상황보고서’에서 “인공지능 개발·활용과 관련해 국민 안전과 인권을 보호하기 위한 원칙과 세부 규정, 감독체계, 피해 구제 방안 등을 갖춘 강제성 있는 법률안을 마련해야한다”는 의견을 밝혔다.
인권위는 ▲ 인공지능에 따른 편향과 차별 ▲ 인공지능 기반 영상 인식·합성 기술을 이용한 감시, 인격 침해 ▲ 인공지능 판단 과정의 불투명성 등을 인공지능 관련 대표적 인권침해 유형으로 제시하며 국내 사례로 인공지능 챗봇 ‘이루다’ 사례를 꼽았다.
광고
이루다는 스타트업 스캐터랩이 2020년 12월 말 출시한 ‘딥러닝’ 방식의 20대 여성 대학생 AI 챗봇이다. 하지만 이루다가 이용자와 대화하며 여성과 동성애, 장애인에 대한 혐오 메시지나 흑인 등을 대상으로 한 인종차별적 메시지를 전송한다는 등의 문제가 식별되며 3주 만에 서비스가 중단됐다.
인권위는 “이루다의 혐오와 차별적 메시지는 인공지능 시대에 발생할 수 있는 혐오와 차별의 결과를 보여줄 수 있는 대표 사례”라며 “인공지능과 관련한 법률을 마련할 경우, 인공지능과 인권 문제는 설계와 개발단계에서 인권 존중 관련 원칙을 두는 것이 강조될 필요가 있다”고 제언했다.
AI가 분석한 면접 결과 [연합뉴스 자료사진]
보고서에서 인권위는 민간 기업이나 공공기관에 도입되는 인공지능 채용 면접에 관련한 우려도 제기했다.
인권위는 “인공지능은 과거 한국 사회에서 누적된 데이터에 의존해 학습하는데 데이터가 다양한 요소에 기반한 오랜 차별이 반영되어 있어 인공지능 기술이 불평등과 차별을 학습하는 결과로 이어질 수 있다는 지적이 있다”고 설명했다.
그러면서 “성별, 연령, 신체조직, 용모, 출신지역 등의 차별이 없는 채용을 규정하고 있는 국내의 관련 법 제도가 인공지능을 활용한 채용에서 제대로 실현되고 있는지 확인할 필요가 있다”고 지적했다.
인권위는 AI 면접 과정에서 인공지능의 판단이나 결정에 책임을 질 수 있는 주체와 절차를 명확히 하고 그에 따른 법적·제도적 근거가 있어야만 투명성과 공정성을 확보할 수 있다고 제언하며 이를 위한 법률적 장치가 부족하다고 평가했다.
인권위는 “인공지능을 직접 규율 대상으로 하는 법률안이 다수 제안돼있지만, 인공지능의 투명성·공정성 관련 원칙과 구체적인 내용은 찾아보기 어렵다”며 “인공지능 행위의 법적·제도적 책임에 관한 논의도 필요하다”고 지적했다.
인권위는 공공기관에서도 이러한 ‘AI 면접’이 도입되는 것과 관련해 “보다 공정하고 투명한 인사 절차를 보장해야 할 공공기관마저 책임성 없이 인공지능 채용 도구를 무분별하게 도입하는 경향이 있다”고 비판하기도 했다.
얼굴인식시스템 [연합뉴스 자료사진]
인권위는 인공지능의 식별 기술과 결합한 얼굴인식시스템 도입·확산에도 강한 우려의 목소리를 냈다.
인권위는 “얼굴인식시스템은 개인정보 중에서도 이른바 생체인식정보(바이오정보)를 수집·처리하는 것이어서 ‘민감정보’ 처리 문제가 발생하며, 나아가 불특정 다수를 대량 감시하는 경우에 이를 수도 있다”며 “본질적으로 인권침해 가능성이 매우 크며 그 도입에 신중해야 한다”고 지적했다.
그러면서 “얼굴인식에 사용되는 특정인의 얼굴 특징을 분석한 정보는 살아있는 동안 그 사람과 결합해 있고, 이름이나 주소, 식별번호, 암호 같은 다른 개인정보와 달리 쉽게 변경할 수 없다”며 “축적된 정보가 부당하게 활용되거나 유출될 경우 피해의 위험성이 중대하다”고 우려했다.
인권위는 “생체정보는 개인정보 보호법에 의해 민감정보로 분류되고, 따라서 일반적 개인정보보다 엄격한 보호 기준이 적용되지만 얼굴인식시스템을 통해 입수한 개인정보는 대부분 인지할 기회 없이 처리된다”고 지적했다.
인권위는 이와 관련해 “명확한 법률적 근거에 따라 얼굴인식시스템을 운영하도록 하는 방안을 숙의할 필요가 있고, 얼굴인식 인공지능시스템을 학습시키기 위한 얼굴정보 주체의 명시적인 동의 또는 구체적이고 명확한 법률 근거를 확보하는 방안을 검토해야 할 것”이라는 의견을 내놓았다.
인권위는 자신의 데이터를 받거나 관리 업자에게 데이터 제공을 요청할 수 있도록 하는 ‘데이터 이동권’과 관련해서도 제도적 보완이 필요하다고 지적했다.
인권위는 “우리나라 기업 등에서 개인정보를 처리하는 실태를 보면, 외형적으로는 정보 주체 개인의 적법한 동의를 받지만 사실상 동의를 강제하거나 비자율적·요식적으로 동의하게 하는 경우가 빈번하다”고 지적했다.
그러면서 “개인이 자유의사로 적절한 동의를 하지 못하고 기업 등의 암묵적 강요 등에 따라 데이터 이동 요구를 한 경우 민감한 개인정보까지 아무런 제약 없이 전송되고 경제적, 산업적 가치 창출을 빌미로 오남용될 가능성이 있다”고 비판했다.
인권위는 이와 관련해 “데이터 이동권을 행사할 때 서면 등으로 명시적 동의를 받고, 데이터 이동권 행사에 따른 불이익의 고지와 설명을 제공하는 등 행사 방법과 절차를 명확히 보완할 필요가 있다”고 제언했다.
제보는 카카오톡 okjebo <저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
인권위, AI 개발과 활용시 인권침해 방지 가이드라인 마련
국가인권위원회가 인공지능(AI) 개발과 활용 과정에서 인권 침해와 차별을 방지하기 위한 가이드라인을 마련하고 국무총리와 관련 부처 장관에게 이행할 것을 권고했다.인권위가 17일 제시한 가이드라인에는 ▲인간의 존엄성 및 개인의 자율성과 다양성 보장 ▲투명성과 설명 의무 ▲자기 결정권의 보장 ▲차별금지 ▲인공지능 인권영향평가 시행 ▲위험도 등급 및 관련 법·제도 마련 등의 내용이 담겼다.인공지능은 인간의 존엄성과 행복을 추구할 권리에 부합하는 방향으로 개발·활용돼야 하며 개인의 자율성을 침해해서는 안 된다는 것이 큰 원칙이다. 또 인공지능 기술을 활용한 판단 과정과 그 결과에 대해 적절하고 합리적인 설명이 보장돼야 하며 기본적 인권에 중대한 영향을 미치는 경우에는 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개하고 설명할 수 있어야 한다.인공지능이 개인의 인권과 안전에 미치는 위험성을 단계별로 구분해 그에 걸맞은 수준의 규제와 인적 개입이 이뤄지도록 법과 제도를 마련하라는 내용 등도 포함됐다.인권위는 “인공지능 기술의 발전은 사회 전반에서 영향을 미치지만 영향을 받는 당사자들은 인공지능의 도입·운영·결정 과정에서 의견을 제시하거나 참여할 기회를 보장받지 못하고 있다”며 “인공지능에 의해 인권 침해나 차별이 발생해도 효과적인 권리 구제를 받을 수 있는 절차와 방법이 미흡한 상황”이라고 지적했다.인권위는 국무총리와 과학기술정보통신부 장관, 개인정보보호위원장, 방송통신위원장, 공정거래위원장, 금융위원장에게 가이드라인에 기초한 인공지능 관련 정책의 수립·이행과 관계 법령의 제·개정이 이뤄지도록 하라고 권고했다.신융아 기자
“인공지능 개발·활용 때 인권침해 최소화”‥인권위 가이드라인
전체재생
국가인권위원회가 인공지능을 개발하고 활용하는 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위한 가이드라인을 마련해, 정부에 준수할 것을 권고했습니다.인권위가 마련한 ‘인공지능 개발과 활용에 관한 인권 가이드라인’에는 인간의 존엄성과 개인의 자율성·다양성 보장, 투명성과 설명 의무, 개인정보의 자기결정권 보장, 차별금지 등에 대한 내용이 포함됐습니다.인권위는 우선 인공지능이 인간의 존엄성과 행복을 추구할 권리와 부합하는 방향으로 개발·활용돼야 하고, 개인의 자율성을 침해해서는 안 된다고 명시했습니다.또 인공지능 기술을 활용한 판단 과정과 결과에 대해 적절한 설명이 보장돼야 하며, 기본적 인권에 중대한 영향을 미칠 때는 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개할 수 있어야 한다고 덧붙였습니다.아울러 인공지능이 개인의 인권과 안전에 미치는 위험성을 단계별로 구분해, 규제와 인적 개입이 이뤄질 수 있도록 법과 제도도 마련해야 한다는 내용도 포함됐습니다.인권위는 “인공지능 기술의 발전이 사회 전반에 영향을 미치고 있는데, 영향을 받는 당사자들은 인공지능의 도입·운영 등 과정에 참여하지 못하고 있다”면서 “인권적 관점에서 기준을 마련할 필요가 있다고 봤다”고 설명했습니다.
“AI 개발시 인권침해·차별 방지해야”…인권위, 정부에 개선 권고
© News1 DB
인공지능(AI) 개발 및 활용 과정에서 인권침해와 차별을 방지하기 위해 법령을 제·개정할 필요가 있다는 국가인권위원회의 권고가 나왔다.인권위는 17일 인공지능 개발과 활용에 관한 인권 가이드라인에 기초해 인공지능 관련 정책이 수립·이행되고 관계 법령을 제·개정할 것을 국무총리와 관련 부처 장관에게 권고했다.인권위에 따르면 국제사회는 인공지능 때문에 발생할 수 있는 문제를 예방하기 위한 제도와 지침을 개발하고 있다. 유엔은 인공지능 활용 시 인권보호 장치를 마련하도록 여러 차례 권고했다.유럽연합(EU)도 안면인식 인공지능 시스템 활용 금지, 인공지능 면접 시스템에 대한 고위험 등급 부과, 위험단계에 따른 규제수준 설정 등을 주요 내용으로 하는 ‘인공지능법’ 초안을 공개했다.이에 인권위는 국제적 흐름에 발맞춰 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권의 보장 △차별금지 △인공지능 인권영향평가 시행 △위험도 등급 및 관련 법·제도 마련 등을 주요 내용으로 한 가이드라인을 마련했다.인권위는 이 가이드라인에 기초해 과학기술정보통신부장관, 개인정보보호위원회 위원장, 방송통신위원회 위원장, 공정거래위원회 위원장, 금융위원회 위원장에게 인공지능 관련 정책을 수립·이행하고 관계 법령을 제·개정해야 한다고 권고했다. 공공기관 및 민간기업도 가이드라인을 준수하도록 적극적으로 관리·감독할 것도 주문했다.인권위는 “인공지능 기술의 발전은 사회 전반에 걸쳐 인간의 기본적인 삶과 인권에 영향을 미치고 있다”며 “그러나 그 영향을 받는 당사자들은 인공지능의 도입·운영·결정 과정에서 의견제시나 참여의 기회를 보장받지 못하고 있다”고 권고 취지를 설명했다.또 “인공지능에 의해 인권침해나 차별이 발생한 경우에도 효과적인 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황”이라며 “이에 인권위는 인권적 관점에서 인공지능의 개발·활용 시 준수해야 할 기준을 마련할 필요가 있다”고 덧붙였다[email protected]
키워드에 대한 정보 인공 지능 인권
다음은 Bing에서 인공 지능 인권 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.
이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!
사람들이 주제에 대해 자주 검색하는 키워드 [코지의 두근두근 AI학습 5화] AI(인공지능), 꿈의 기술인가 인권침해 기술인가
- LG CNS
- 코딩지니어스
- 인공지능
- AI교육
YouTube에서 인공 지능 인권 주제의 다른 동영상 보기
주제에 대한 기사를 시청해 주셔서 감사합니다 [코지의 두근두근 AI학습 5화] AI(인공지능), 꿈의 기술인가 인권침해 기술인가 | 인공 지능 인권, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.