지식의 지평

프런티어

인공지능 윤리의 쟁점: 현황과 도전

37호 - 2024
한양대학교 철학과 교수
이상욱

이 글의 일부 내용은 홍성욱·이중원(2023)에 수록된 필자의 글을 활용하여 작성되었다.

1. 인공지능 기반 디지털 시대의 도래 

  인공지능(AI: Artificial Intelligence)의 시대가 ‘마침내’ 도래한 것 같다. ‘마침내’라는 수식어를 단 이유는 인간이 만든 기계가 수행하는 인간의 지적인 행동을 실제 인간의 행동과 구별할 수 없는 시대가 곧 도래하리라는 인공지능학자들의 전망이 여태까지는 번번이 어긋났기 때문이다. 1950년대 인공지능 연구를 본격적으로 시작한 매카시나 민스키 등의 선구자들은 늦어도 수십 년 내로 인간의 모든 지적 노동을 대신할 수 있는 인공지능이 등장할 것이라고 믿었다. 1980년대 ‘병렬 처리’라는 획기적 계산 알고리즘이 주목받을 때도 역시 많은 인공지능 연구자들이 이번에야말로 인공지능이 조만간 사회 전체에 널리 사용될 것으로 기대했다. 하지만 이런 섣부른 기대는 이후 연구가 여러 이론적, 실천적 이유로 어려움을 겪으면서 번번이 좌절되었고, 인공지능 연구자들은 연구 지원이 끊기고 전망이 없는 분야 취급을 받는 이른바 인공지능 연구의 ‘겨울’을 경험해야 했다.[1]  

  하지만 2005년 이미지 판독을 시작으로 기존 인공지능의 효율성을 획기적으로 높인 ‘신경망 기반’ 기계학습 알고리즘이 등장했다. 이후 인공지능 연구는 자연언어 처리나 단백질의 3차 구조 예측처럼 인공지능 연구자들에게는 불가능에 가까운 영역이라고 생각한 분야로도 확장되었다. 특히 2022년 11월에 등장하여 세계적으로 ChatGPT 열풍을 일으킨 생성형 거대언어모형(LLM) 인공지능의 등장은 많은 인공지능 연구자들에게 오랜 기간 도달하기 어려운 성배처럼 여겨졌던 ‘인공 일반지능(Artificial General Intelligence)’이 곧 실현되리라는 기대를 가져다주었다. 디지털 기술로 우리 사회가 근본적으로 바뀌는 디지털 전환 과정에서 인공지능이 핵심 기술로 주목받는 이유가 여기에 있다.

  최근 국내외에서는 인공지능의 일상화만큼이나 인공지능이 제기하는 여러 인문학적, 사회과학적 쟁점을 학술적으로, 실천적으로 탐색하는 연구도 활발하다. 전통적으로 인간만이 할 수 있었던 법률, 의료, 세무 등의 일자리 영역에서도 인공지능 활용이 늘어나면서 대량 실업 사태가 일어날 수 있다는 종말론적 두려움과 이를 정반대로 해석해서 인간이 노동으로부터 해방된 자유를 얻게 되리라는 유토피아적 기대가 함께 제시되고 있다. 어느 상황이 실현되든 하나의 해결책으로 논의되는 ‘기본소득’ 개념은 어느덧 상식적 담론이 되었다.[2]  

2. 인공지능 윤리의 부상

  최근에 부상한 인공지능에 대한 이런 다양한 쟁점을 통합적으로 다루는 분야를 UN, EU, OECD 등의 국제기구는 인공지능 윤리(ethics)로 지칭한다. 특히 유네스코는 2021년 11월 총회에서 만장일치로 채택한 “인공지능 윤리 권고”에서 인공지능이 개인과 사회와 맺는 다양한 접점을 포괄적으로 탐색함으로써, OECD와 EU의 인공지능 윤리 논의가 주로 경제적·기술적 발전에 집중하여 윤리적 쟁점을 제기한 것과 대비된다. 이는 이후 설명할 ethics의 포괄적 의미를 온전하게 담아내려는 시도라고 평가할 수 있다(UNESCO 2019, 2021).

  한편, 전기전자공학 전문가들의 국제조직인 전기전자공학자협회(IEEE: Institute of Electrical and Electronics Engineers)는 ‘인공지능’이라는 단어가 줄 수 있는 불필요한 의인화 등을 걱정하여 AI라는 용어보다는 A/IS(Autonomous Intelligent System), 즉 ‘자율지능 시스템’이라는 용어를 선호한다. 그런 IEEE 또한 A/IS의 설계 단계에서부터 ‘윤리원칙에 일치하는 설계(Ethically Aligned Design)’ 개념을 강조하며 아예 그와 관련된 국제표준 마련에 힘을 쏟고 있다. 이 사실은 인공지능에 대한 윤리 연구와 실천이 철학자나 인문학자에게만 국한된 관심이 아니라 인공지능 연구자를 포함한 공학자들에게도 중요한 주제로 인식되고 있음을 보여준다. ‘좋은’ 인공지능을 만들기 위해서도 윤리적 고려를 설계 단계부터 반영하는 것이 매우 중요하다는 인식이 국제적으로 상당한 공감대를 얻고 있는 것이다(IEEE 2020).

  그런데 국내에서는 인공지능 ‘윤리’라는 용어 자체에 대해 거부감을 갖는 일부의 사람들이 있다. 자료를 조작하거나 다른 사람 연구를 표절하는 등 연구부정행위를 저지르지 않는 한 과학이나 기술은 윤리와는 무관한 가치중립적 영역이라는 생각 때문일 것이다. 사실 과학기술 연구자들 사이에는 윤리와 과학기술이 극단적인 오용 사례를 제외하고는 무관하다는, 혹은 관련이 있더라도 아주 막연한 원칙 제시 수준에서만 관련된다는 직관이 강하게 있는 편이다.[3]  

이런 직관을 여러 방식으로 설명할 수 있겠지만 필자는 공약불가능한(incommensurate) 두 개념, 즉 우리말의 윤리(倫理)와 영어 ethics 사이의 미묘한 의미 차이가 중요하다고 생각한다. 우리의 일상적인 언어 직관에 따르면, ‘윤리’는 지극히 개인적이고 시시비비가 명백한 사안에만 적용된다는 느낌이 있다. 이 직관은 우리말에 대해 가장 권위를 갖는 국립국어연구원의 『표준국어대사전』의 ‘윤리’에 대한 정의, “사람으로서 마땅히 행하거나 지켜야 할 도리”와도 일치한다. 이 정의에서 연상되는 상황은 천륜을 어기고 부모를 학대하는 행위나 상식적인 허용 범위를 넘어 극단적으로 자기 이익만 챙기는 행위가 될 것 같다. 즉, 우리말에서 윤리란 개인이 누구에게나 명백하게 도리에 어긋나는 행동을 하는 것에 적용되는 개념이다.

  이제 이런 윤리 개념으로 인공지능 윤리라는 표현을 살펴보면 누가 봐도 이상하다는 느낌을 갖지 않을 수 없다. 일단 많은 인공지능 윤리의 쟁점은 사회적이고 논쟁적이다. 예를 들어 최근 강조되는 투명성이나 설명가능성을 강조하다보면, 인공지능의 효율성이 저하되거나 민감 정보가 유출될 가능성이 높아질 수도 있다. 이처럼 현재 인공지능 윤리에서 논의되는 내용은 (당연히 개인적 영역도 포함하지만) 많은 경우 사회적 수준에서 문제를 파악하고 해결책을 마련해야 하는 부분이고, 대부분은 그 문제점 분석이나 해결책 마련 과정 자체가 관련된 많은 집단의 이익과 다양한 가치를 종합적으로 고려해야 하기 때문에 논쟁적이고 지난한 사회적 숙고를 요구한다.[4] 우리말의 ‘윤리’ 개념으로 인공지능 윤리를 제대로 이해하기 어려운 것도 무리는 아니다.

  그럼 이제 영어의 ethics는 어떤 의미인지 살펴보자. 어원을 따져보면 ethics는 고대 그리스어에서 (사회적) ‘인격(character)’을 뜻하는 단어 ethos, 그리고 라틴어에서 ‘관습(customs)’을 뜻하는 단어 mores와 깊은 관련이 있다. mores라는 단어는 우리가 흔히 ‘도덕적’이라고 번역하는 영어 ‘moral’의 어원이기도 하다. 우리가 일상적인 표현으로 ‘윤리적’과 ‘도덕적’을 혼용해서 쓰듯이 영어에서도 (철학적으로 엄밀하게 구별할 때를 제외하면) 이 둘을 혼용하는 경향이 있다. 그래서 『옥스퍼드 영어사전』에서 제시된 ethic의 정의는 “a set of moral principles, especially ones relating to or affirming a specified group, field, or form of conduct(일련의 도덕적 원칙, 특히 특정 집단, 분야 또는 행위 형태와 관련되거나 긍정하는 원칙)”이다. 이 정의에서 주목할 점은 ethic의 정의에 특정 집단, 분야, 행위의 종류가 등장한다는 사실이다. 이는 앞서 지적했듯이 ethic의 어원에 특정 집단이나 분야마다 공유되는 올바름의 기준이 다를 수 있는, ‘관습’의 의미가 포함되어 있다는 점과 일맥상통한다. 그리고 이러한 특징은 우리말의 ‘윤리’와 달리 영어의 ethic이 특정 개인의 행동 자체만이 아니라 그 행동의 사회적 의미까지를 본질적으로 포함하고 있음을 시사한다.

  서양 문명의 기원이라고 알려진 그리스-로마 시대의 ethics에 해당하는 개념이 이처럼 개인적 수준과 사회적 수준을 가로지르고 있다는 사실을 염두에 두면, 황우석 연구팀의 논문조작 사건으로 촉발된 ‘연구 윤리(research ethics)’라는 개념이나 최근 강조되는 ‘전문직 윤리(professional ethics)’ 개념이 결코 ethics 개념을 최근에 확장한 것이 아님을 짐작할 수 있다. 그보다 이들 용어는 특정 집단에 고유한 내적 규범을 의미하는 ethics 본래의 의미에 충실한 것이다. ‘과학 연구자가 연구만 열심히 하면 되지 따로 윤리가 왜 필요하냐’라는 생각은 우리말의 ‘윤리’ 직관을 따른다면 이해될 수 있는 반응이지만 영어의 ethics를 비롯한 국제적 기준에 따른다면 부적절한 반응이라고 볼 수 있는 것이다.

  이 지점에서 오해의 여지를 제거할 필요가 있다. 필자는 우리말의 ‘윤리’ 개념이 틀렸고 서양의 ethic 개념이 올바르다고 주장하는 것이 아니다. 그런 지적은 수(number) 개념으로 자연수는 틀린 개념이고 보다 포괄적인 정수나 실수 개념만이 진정한 수 개념이라고 주장하는 것만큼이나 터무니없다. 개념은 원칙적으로 맞고 틀리고의 문제라기보다는 정의의 문제이다. 그런 의미에서 우리말의 ‘윤리’ 개념이나 영어의 ‘ethics’ 개념 모두 동등하게 의미있는 개념이다. 필자는 인공지능 ethics와 관련하여 국제적으로 통용될 수 있는 방안을 만들거나 법제도화 등을 추진할 때 우리가 이 두 의미의 차이에 유의해야 한다고 지적하는 것이다.  

  두 의미의 차이점은 우리가 사회적으로 추구해야 할 가치가 여럿이라는 사실, 그리고 그 가치들 사이에서는 종종 충돌이 일어난다는 사실에서 잘 드러난다. 이런 상황에서 공정하고 효율적인 윤리적 해결책은 거의 대부분 고려해야 할 여러 가치를 사회적으로 수용할 수 있는 방식으로 맞교환(tradeoff)함으로써 얻어지게 된다. 그리고 그런 과정에서 직관적으로 ‘좋은 것들’ 사이에 절충이나 선택을 해야 하는 경우도 발생하게 된다. 개인의 행동에 대한 선악 판단에서 암묵적으로 전제되는 ‘명백함’이나 ‘착하게 살면 윤리는 신경 쓰지 않아도 된다’는 직관이 더 이상 통용되지 않는 것이다. 당연히 인공지능 윤리의 여러 핵심 주제에 대해서도 마찬가지 방식으로 주요한 사회적 결정이 내려질 수밖에 없다.

  이렇게 이해된 인공지능 윤리의 관점에서 보면 인공지능과 관련된 다양한 개인적, 사회적, 법적, 제도적 쟁점에 대해 단순하게 선악을 판단하려고 시도하기보다는 우리 사회가 존중하는 핵심적 가치에는 어떤 것이 있으며 그 가치를 최대한 균형 있게 존중하는 방식으로 인공지능을 개발하고 활용하기 위해서는 어떤 점에 주의하고 어떤 제도적 장치를 마련해야 하는지를 통합적으로 탐색하려는 노력이 필요하다.[5]

3. 인공지능 윤리 국제 거버넌스와 인공지능 리터러시

  현재 시점에서 인공지능 윤리 국제 거버넌스의 동향을 살펴보면 인공지능 기술 혁신이 가져다줄 수 있는 잠재적 혜택을 실현하기 위해 노력하는 동시에 이 기술이 제기하는 개인적, 사회적 수준의 위험 및 윤리적 쟁점에 적극적으로 대응한다는 입장으로 요약할 수 있다. 쉽게 이야기하면 두 마리 토끼를 동시에 잡겠다는 의도인데, 이런 쉽지 않은 도전적 상황에서 우리는 다음 두 측면에 주목해야 한다. 

  첫째는 인공지능 윤리의 사회적 대응 과정은 결코 국제적으로 대체적 합의가 이루어진 인공지능 윤리 원칙을 가져다 국내 제도에 반영하는 방식으로는 얻을 수 없다는 것이다. 그 주된 이유는 앞서 설명했듯이 추상적 원칙 수준에서는 상당히 광범위한 합의가 국제적으로 형성되어 있지만 그것을 제도화하고 규제 법률로 만드는 과정에서는 상당한 추가 논의가 필요한데 이는 각각의 제도화, 규제화가 이루어지는 국소적 맥락을 고려하여 수행되어야 하기 때문이다. 그리고 이러한 추가 논의 과정은 국제적 논의 흐름에서 보이는 핵심을 모니터링하면서 수동적으로 그것을 반영하려는 소극적 태도를 지양하고 그 논의 과정에 적극적으로 참여하여 바람직한 인공지능 윤리 제도화를 정립하려는 보다 적극적 태도에 기반하여 진행되어야 한다.

  둘째는 인공지능 리터러시와 인공지능 윤리 교육의 중요성이다. 앞서 지적했듯이 인공지능 윤리(ethics)의 쟁점은 많은 경우에 논쟁적이다. 그 이유는 우리가 소중하게 여기는 윤리 원칙들에 대해 사람들이 대체적으로는 합의하지만, 구체적으로 제도화하는 단계에서는 의견 차이가 드러나는 경우가 많기 때문이다. 물론 법률적으로 보장받아야 하는 기본권은 우리 사회에서 이미 헌법적 가치로 합의하였다. 하지만 중요한 점은 이런 기본 윤리 원칙을 인공지능과 관련하여 준수하려고 할 때 많은 경우 서로 다른 윤리 원칙 사이에 충돌이 발생할 수 있다는 점이다(Reich, Sahami, and Weinstein 2021).

  그러므로 우리의 인공지능 윤리 교육 역시 인공지능의 설계와 활용 과정에서 이런 문제가 발생할 수 있고 이런 문제는 이렇게 해결하면 된다는 식의 ‘정답’을 제시하는 방식으로는 해소하기 어렵다. 그보다는 인공지능의 기술적 특징과 활용 방식에 따라 왜 윤리적 문제가 발생하는지에 대한 이해에 바탕하여 우리 사회에서 바람직한 해결책을 찾아나가는 도덕적 사고 및 합의를 도출할 수 있는 ‘역량’을 강화하는 교육이 되어야 할 것이다. 이 과정에서 인공지능과 교육에서 최근 강조되는 인공지능 리터러시 교육과의 시너지 효과에도 주목할 필요가 있다. 결국 인공지능 윤리 교육은 인공지능 기술 자체에 대한 정확한 이해와 그 기술이 사회문화의 여러 측면과 맺는 다양한 상호작용의 성격을 올바르게 분석해 내는 역량에 기초해야 하기 때문이다.

  인공지능 리터러시 교육과 마찬가지로 인공지능 윤리 교육 역시 전 국민을 대상으로 하는 ‘보편 시민 교육’에서 인공지능 코딩 교육보다는 훨씬 더 핵심적인 위치를 차지하는 것이 마땅하다. 앞서 지적했듯이 인공지능 인터페이스 발전 방향에 따라 우리 대부분은 인공지능 프로그램을 하지 않고도 살 수 있을지 모르지만 인공지능을 기반으로 자동화된 결정에 따라 운영되는 사회에서 살아갈 것은 거의 자명해 보이기 때문이다. 이런 점을 고려할 때 인공지능 윤리의 제도화 과정은 정부와 인공지능 개발자 및 운영자 사이의 정책적 조율로만 진행될 사안이라기보다는 대다수가 인공지능 사용자로 참여할 일반 시민이 포괄적 의미의 인공지능 리터러시를 확보하기 위한 노력과 동시에 진행되어야 한다.

  결론적으로 우리는 인공지능처럼 빠르게 발전하며 사회적 영향력을 확대하는 기술에 대한 넓은 의미에서의 윤리적 고려와 그 고려를 다양한 방식으로 제도화하려는 노력이 국제적 공감대를 얻고 있음을 알 수 있다. 또한 이러한 공감대에 기초하여 국가별로 이루어지는 구체적 수준의 인공지능 윤리 거버넌스는 개별 국가의 역사적, 사회적, 문화적 상황에 대한 치밀한 분석과 연구에 기초하여 수행되어야 하며 서둘러 법만 만들면 그만이라는 생각은 결코 바람직하지 않다는 점도 알게 되었다.

  현장에서 인공지능 기술을 개발하는 공학자나 관련 사업을 추진하는 기업가들은 이런 상황에 대해 껄끄러운 ‘규제’가 또 하나 생긴다고 불편해할 수 있다. 그들 입장에서는 ‘규제’를 곧 ‘혁신 저하’와 동일시하는 경향이 있기 때문일 것이다. 하지만 이런 생각은 기술혁신의 역사에서 보면 사실이 아니다. 실제로 1970년대에 자동차 배기가스 규제를 도입하려 할 때 미국의 대형 자동차 회사들은 이 규제가 산업 생산력을 저하시키고 소비자의 권익을 해칠 것이라고 극렬하게 반대했다. 하지만 실제로 이 규제는 보다 친환경적인 내연기관을 개발하는 기술 혁신과 배기가스 저감장치 등의 파생 기술 개발로 이어졌다. 어떤 기준으로 평가하더라도 1970년대의 배기가스 규제가 기술혁신을 저하했다든지 소비자 권익을 해쳤다고 볼 근거는 없다. 이처럼 적절하고 합리적인 방식으로 운용된 규제는 기업의 산업 환경을 바꿈으로써 기업의 기술혁신 의욕을 오히려 더 고취할 수 있으며 사회적으로 유용한 방향으로 기술혁신을 유도할 수도 있다. 현재 한창 기술이 개발되고 있기에 앞으로의 혁신 잠재력이 큰 인공지능 기술에서 현명한 규제가 적절하게 이루어진다면 1970년대 배기가스 규제와 마찬가지로 기술혁신과 사회적 공익 실현을 동시에 달성할 수 있을 것이다.

4. 맺음말: 신뢰가능한 인공지능, 책임있는 인공지능, 안전한 인공지능

  최근 인공지능 윤리와 관련한 국제 논의의 지형도는 2022년 11월에 등장한 생성형 거대언어모형 인공지능을 계기로 크게 변화하고 있다. 그 변화의 핵심은 ‘원칙’에서 ‘행동’으로의 변화이다. 

  잘 알려져 있다시피 인공지능 윤리와 관련한 국제적 논의에서 자주 등장하는 개념은 투명성(transparency), 공정성(fairness), 설명가능성(explainability) 등 여러 가치들이다. 그런데 이런 다양한 가치(values)들을 종합적으로 묶어내는 개념(반드시 상위 개념이라기보다는 이런 다양한 가치들이 인공지능 기술 맥락에서 지향하는 바를 종합적으로 표현한 개념이라는 의미에서)으로 제시되는 것이 신뢰가능한(trustworthy) 인공지능, 책임있는(responsible) 인공지능, 안전한(safe) 인공지능 개념이다.

  우선 신뢰가능한(trustworthy) 인공지능은 인공지능 윤리 논의의 시작이라고 할 수 있는 2017년부터 자주 언급되는 핵심 개념이다. 신뢰가능한 인공지능이란 인공지능의 설계 목적을 충실하게 수행하면서 동시에 다른 부작용은 발생시키지 않는 인공지능을 말한다. 예를 들어 자동차나 에어컨처럼 안정된 기술은 그 설계 목적(즉, 탑승자의 위치를 주행으로 공간 이동을 시키는 일과 작동 공간의 온도를 낮게 유지하는 일)을 안정적으로 달성하고 다른 문제(예를 들어 급발진이나 컴프레서 폭발)는 거의 일으키지 않는다. 신뢰가능한 인공지능 개념은 이와 마찬가지로 이미지 판독이나 맞춤학습 도우미 역할 등은 충실하게 수행하면서 개인정보 유출이나 사회적 편견의 확대와 같은 부작용을 일으키지 않도록 정확하게 설계되고, 윤리적으로 정렬된 방식으로 사전학습되어, 적절한 윤리적 감독하에 운영되는 인공지능을 의미한다.

  책임있는(responsible) 인공지능은 일반적으로 인공지능 개발자와 관련 산업이 신뢰가능한 인공지능을 만들기 위해 적극적으로 노력해야 한다는 자율규제 원칙과 연결되어 자주 등장하는 개념이다. 이 개념 역시 생성형 인공지능의 등장 이전까지는 아직 성장 중인 인공지능 기술에 대해 섣불리 강한 법적 규제를 도입하는 것은 적절하지 않다는 견해가 우세했고, 그런 이유로 인공지능의 잠재적 위험에 대해 ‘책임있는 인공지능’을 만들려는 기업들의 자율적 노력을 강조하는 방식의 대응을 우선적으로 선택하는 것이 바람직하다고 여겨졌다. 즉, 책임있는 인공지능은 신뢰가능한 인공지능을 실현하기 위한 실천적 가치라고 볼 수 있다.

  이런 상황은 2022년 11월 OpenAI의 생성형 인공지능인 ChatGPT 등장으로 급격하게 바뀌기 시작했다. 핵심은 생성형 인공지능으로 할 수 있는 일의 범위가 기존 인공지능에 비해 훨씬 넓어졌으며 특히 멀티모달로 생성형 인공지능이 확장되면서 정치적, 윤리적으로 중요한 문제를 일으킬 우려가 높아졌다는 데 대다수의 사람들이 주목했기 때문이다. 그 결과 대개는 기술 혁신에 강조점을 두는 미국 상원조차 선거 과정에서 생성형 인공지능으로 만들어진 허위정보, 기만정보가 일으킬 문제에 주목하면서 청문회를 개최했고, 유럽의회는 그전에 이미 추진 중이던 인공지능 법안에 생성형 인공지능을 따로 분류해서 고위험 인공지능에 버금가는 강한 규제를 도입하는 수정을 진행했다. 그 결과가 작년에 발표된 미국 행정부의 “인공지능 윤리 행정명령”과 지난 3월 최종적으로 유럽의회를 통과한 “EU AI 법”이다. 

  특히 생성형 인공지능은 이중사용(dual use) 문제가 매우 심각해서 순수 연구 목적이나 일상 용도로 설계된 인공지능을 조금만 변형해도 쉽게 군사 목적이나 국가안보에 심각한 위험을 초래할 수 있는 방식으로 사용할 수 있기에 이 점에 대해 각국의 경계심이 높아졌다.[7] 이런 과정에서 그전까지 강조되던 신뢰가능성만이 아니라 ‘안전성’을 추가로 강조하는 새로운 흐름이 국제 인공지능 거버넌스에 등장했다. 아직까지는 인공 일반지능에 도달하지는 않았지만 현재 첨단 인공지능(frontier AI)의 능력만으로도 사회 전체의 안전과 국가안보에 심각한 위협을 줄 수 있기에 인공지능 연구 개발 및 활용에서 ‘안전한 인공지능’을 추구해야 한다는 공감대가 형성된 것이다.

  이상의 논의에서 알 수 있듯이 현재 인공지능 윤리 논의는 ‘원칙에서 행동’으로 나아가고 있다. 다만 여기서 ‘행동’이란 우리나라에서 흔히 이해되듯 강성 규범인 법 제정이나 직접적 규제 도입만을 의미하는 것은 아니다. 효율적이고 바람직한 인공지능 거버넌스는 강성 규제만이 아니라 관련 행위자들의 자율 규제와 함께 인공지능의 잠재력과 위험을 올바로 이해하고 보다 바람직한 방향으로 인공지능을 발전시키기 위해 꼭 필요한 인공지능 리터러시의 함양을 포함한다.

  마지막으로, 인공지능 윤리와 국제 거버넌스가 성공적으로 정착되기 위해서는 인공지능 기술의 특징을 국제적으로 반드시 공조해야 한다는 사실을 강조하고 싶다. 최근 이스라엘-하마스 전쟁에서도 양측 모두 인공지능을 활용한 허위정보, 기만정보 유포가 기승을 부렸는데 사이버공간의 특성상 그 범위나 내용을 온전히 파악하기 어려웠고 대응책을 마련하기도 쉽지 않았다고 한다. 이처럼 인공지능이 제기하는 국가안보 및 국제정치적 역학관계에 미치는 영향에 대해 보다 치밀한 분석과 함께 관련국과의 적극적 협력 방안 모색이 필요해 보인다. 여기에 더해 인공지능의 기술적 특징상 인공지능 윤리와 국제 거버넌스가 실효성을 갖기 위해서는 세계 모든 나라에서 윤리적 고려를 실천하고 적절한 거버넌스를 마련할 필요가 있는데, 이 과정에서 이런 노력을 먼저 시작한 우리나라가 인공지능 윤리 제도화를 이제 막 시작한 다른 나라들에 적극적으로 경험을 공유하고 도움을 제공하는 것도 바람직하다. 이는 현재 한창 형성 중인 인공지능 국제 거버넌스에서 우리나라의 입지를 강화하는 결과를 가져올 수 있을 것이다.

© 대우재단 무단전재 및 재배포 금지
  • 참고문헌

    이상욱·조은희 편, 2011, 『과학 윤리 특강: 과학자를 위한 윤리 가이드』, 서울: 사이언스북스.

    이중원·박충식·이영의·고인석·천현득, 2018, 『인공지능의 존재론』, 서울: 한울.

    이중원 편, 2019, 『인공지능의 윤리학』, 서울: 한울.

    이중원·목광수·이영의·이상욱·박충식, 2021, 『인공지능 시대의 인간학』, 서울: 한울.

    이중원·홍성욱 편, 2023, 『과학과 가치』, 서울: 이음.

    Fry, Hannah, 2019, Hello World: How to Be Human in the Age of the Machine, London: Transworld Publishers Ltd.

    IEEE, 2019, Ethically Aligned Design, 1st Edition. (https://ethicsinaction.ieee.org/#series 참조)

    Mason, Paul, 2016, Postcapitalism: A Guide to Our Future, London: Penguin Books.

    Mitchell, Melanie, 2020, Artificial Intelligence: A Guide for Thinking Human, New York: Picador.

    Reich, Paul, Mehran Sahami, and Jeremy Weinstein, 2021, System Error: Where Big Tech Went Wrong and How We Can Reboot, New York: HarperCollins.

    Susskind, Richard, and Daniel Susskind, 2017, The Future of Professions: How Technology Will Transform the Work of Human Experts, Oxford:Oxford University Press.  

  • 자료
  • [1]

    관련 내용은 Mitchell(2020) 참조.

  • [2]

    이 주제에 대해 서로 대립되는 견해는 Mason(2016)과 Susskind and Susskind(2017) 참조.

  • [3]

    과학기술과 관련된 다양한 윤리적 주제의 소개와 과학자 및 공학자의 직관에 대해서는 이상욱·조은희(2011) 참조.

  • [4]

    인공지능을 비롯한 디지털 기술에 대한 사회적 고려에 개입하는 여러 가치들의 숙고 필요성에 대해서는 Fry(2019) 참조.

  • [5]

    이런 문제 의식에서 본격적으로 인공지능의 다양한 인문학적 쟁점을 탐색하려는 시도의 사례로는 이중원 외(2018), 이중원(2019), 이중원 외(2021) 참조.

  • [6]

    Netflix, UNKNOWN: Killer Robots, Official Trailer

저자 소개

이상욱
한양대학교 철학과 교수

서울대학교 물리학과 이학사 및 이학석사 후 런던대학교(LSE)에서 철학박사학위를 취득했다. 현재 유네스코 세계과학기술윤리위원회(COMEST) 의장단에 속해 있으며 2021년 유네스코가 공표한 “인공지능 윤리 권고”의 초안 작성에 참여한 바 있다. 한국과학철학회 회장을 역임했으며 현재 HY 과학기술윤리법정책센터 센터장으로 첨단 과학기술이 제기하는 다양한 철학적 쟁점을 탐구하고 있다.