본문 바로가기

연세소식

[Academia] 인공지능과 윤리적 이슈: 로봇 저널리즘의 사례

연세대학교 홍보팀 / news@yonsei.ac.kr
2023-02-22

인공지능과 윤리적 이슈: 로봇 저널리즘의 사례

언론홍보영상학부 박남기 교수



인공지능(artificial intelligence: AI)이 우리 사회에서 본격적인 관심과 주목을 받게 된 것은 2016년 구글의 딥마인드(Google DeepMind)가 개발한 알파고의 등장, 그리고 다보스에서 열린 세계경제포럼(World Economic Forum)에서 소위 ‘4차 산업혁명’이라는 말이 쓰이기 시작하면서부터라고 할 것이다. 실제로 인공지능은 자율주행 자동차, 챗봇, 소셜미디어, 게임, 의료, 군사 등 많은 분야에서 활용되고 있으며, 인공지능과 관련된 이슈들에 대해서 다양한 학문적인 논의가 진행돼 왔다. 


이와 함께 인공지능이나 로봇을 어떠한 존재로 인식해야 하는지, 또는 인공지능이나 로봇을 사용하면서 발생할 수 있는 윤리적인 이슈는 어떤 것들이 있는지에 대한 논의들도 시작됐다. 인문사회 분야에서는 윤리적인 측면과 관련해 주로 철학과 윤리학, 교육학에서 논의가 진행되었으며, 법과 규범의 문제에 있어서는 법학에서 많은 연구가 진행되어 왔다. 커뮤니케이션 분야에서도 인공지능이 새로운 커뮤니케이션 테크놀로지의 하나로 간주되면서 다양한 논의가 진행되고 있다. 



인공지능과 윤리

인공지능과 관련해 윤리적인 이슈가 제기되는 것은, 한편으로는 우리가 공상과학 영화에서 상상했던 것처럼 미래의 어느 순간에 인공지능과 로봇이 인간을 지배하는 세상이 올지도 모른다는 막연한 두려움이 어느 정도는 영향을 미치고 있다고 할 것이다. 최근 인공지능의 급속한 발전을 바탕으로 로봇공학자들을 비롯한 엔지니어들은 2040년대 중반, 빠르면 2030년대 중반이면 인공지능과 로봇 기술이 인간을 뛰어넘을 정도로 발전해 ‘강한 인공지능(strong AI)’의 시대가 도래할 것이라고 전망하고 있다. 그러나 일부의 인문학자들이나 사회과학자들은 인공지능은 인간의 통제가 가능한 ‘약한 인공지능(weak AI)’에 머물러야 하며, 강한 인공지능의 시대는 올 수도 없고 와서도 안된다고 주장하기도 한다. 


인공지능의 윤리적 이슈와 관련해서는 자율주행 자동차의 개발과 함께 ‘트롤리 딜레마(The Trolley Dilemma)’의 문제가 제기되기도 하였고, 일부 학자들은 ‘인공적 도덕 행위자(artificial moral agent: AMA)’라는 개념을 소개하면서, 인공지능을 사람이 만든 기계로 간주하기보다는 윤리적, 법적 책임을 부과할 수 있는 존재로 봐야 한다고 주장하기도 했다. 이러한 학계의 연구나 주장과 함께, 실제로 유럽연합은 로봇법을 통해 로봇 관련 법규 및 규제 대응을 위한 ‘로봇규제 가이드라인’을 제시하기도 했으며, 미국과 일본, 우리나라를 비롯한 많은 나라들에서 인공지능 윤리와 관련해 정부와 민간 연구소들을 중심으로 윤리, 법률, 사회적 이슈에 대한 논의가 활발하게 진행되고 있다. 

 


인공지능의 존재론적 인식

인공지능과 관련된 윤리적 이슈에 대해 이해하고 윤리적 기준이나 원칙을 마련하는 것은 먼저 인공지능을 어떤 존재로 볼 것인가의 문제에서부터 시작된다. 지금까지 학자들은 인공지능이나 로봇을 보는 시각을 대체로 세 가지로 나누고 있다. 


첫째는 인공지능을 단순히 기계로 보는 시각이다. 둘째는 인공지능이 어느 정도 윤리적 차원을 갖는다고 보는 시각이다. 이는 인공지능이나 로봇을 설계하고 만든 것은 인간이기 때문에 인간의 사고와 의도, 의지가 담긴 인공지능이나 로봇 역시 윤리적 차원이 내재한다고 보는 입장이다. 셋째는 인공지능과 로봇을 도덕적 행위자로 보는 시각이다. 이러한 시각은 인공지능이나 로봇을 스스로 윤리적 판단과 행동을 할 수 있는 존재로 보며, 이는 최근 인공지능의 기계학습(machine learning)이나 딥러닝(deep learning)이 가능해지면서 대두된 시각이라 하겠다. 


이상의 인공지능에 대한 존재론적 분류는 윤리적 이슈나 문제에 대해 주체와 객체가 누구인지를 판단하는 기준을 제시해 준다. 첫 번째 시각에서는 윤리적 판단과 행위의 주체는 인간이고, 인공지능이나 로봇은 객체이다. 두 번째와 세 번째 시각의 경우에는 인공지능을 어느 정도 윤리적 행위를 할 수 있는 존재로 본다는 점에서 상황에 따라 인공지능이 주체가 되기도 하고 객체가 될 수도 있다. 또한 두 번째와 세 번째 시각은 인공지능과 로봇이 분명 인간을 위한 도구이고, 인간에 의해 개발되고 발전되었다는 의미에서 윤리적 존재가 될 수 있으며, 인간을 위해 대신 일을 처리한다는 점에서 도덕적 행위자 또는 대리인의 지위를 갖는다고 주장한다. 최근 인공지능과 관련된 윤리적 이슈에 대해 관심이 증대되고 연구가 진행되는 것도 결국은 인공지능을 윤리적 주체로 볼 것인지 아니면 객체로 볼 것인지에 대한 명확한 기준이 없기 때문이다. 만약 첫 번째 시각처럼 인공지능을 객체로만 본다면 윤리적 이슈나 문제에 있어 그 책임을 인공지능을 만든 인간에게만 돌리면 된다. 그러나 여기서 주의해야 할 점은 두 번째 시각의 인공지능은 현실적으로 존재하고 최종적인 책임이 인간에게 있지만, 세 번째 시각에서의 인공지능은 아직 현실에 존재하지 않는다는 점이다. 결국 인공지능을 존재론적 의미에서 분류할 때, 현재 고려할 수 있는 시각은 첫 번째와 두 번째 시각이라 할 수 있고, 이 두 시각에서의 윤리적 이슈는 결국 인간의 윤리적 문제로 귀결된다고 하겠다. 





로봇 저널리즘과 윤리

최근 커뮤니케이션 분야에서는 다수의 학자들이 인공지능 연구와 커뮤니케이션 연구와의 융합 또는 인공지능 연구를 커뮤니케이션 연구의 세부 영역으로 포함시키려는 노력을 기울이고 있다. 이러한 가운데 로봇 저널리즘은 인공지능이 가장 활발하게 적용되는 분야 중 하나이다.


2013년 미국의 로스앤젤레스타임스(Los Angeles Times)가 퀘이크봇(Quakebot)을 활용해 지진 보도를 한 바 있고, 한국에서는 2016년 파이낸셜 뉴스가 로봇 저널리즘을 활용해 온라인판에 기사를 제공하기도 했다. 이후 로봇을 활용한 기사 작성이 꾸준히 증가하는 추세인데, 로봇 저널리즘과 관련한 윤리적 이슈는 보도에서의 윤리 문제라 할 것이다. 여기에는 크게 두 가지 이슈가 있다. 


첫 번째는 편향의 문제이다. 로봇 저널리즘과 관련해 여러 보고서들은 로봇이 만든 기사가 오히려 사람이 만든 기사보다 더 정확하고 객관적이며 더 신뢰할 만하다고 언급하고 있다. 그러나 주의해야 할 점은 로봇이 기사를 쓰도록 하는 프로그램은 결국 사람이 만들고, 사람들의 이해관계에 따라 프로그래밍 단계에서부터 편향이 있을 수 있다는 것이다. 이와 함께, 로봇 저널리즘에서는 기사 작성을 위해 축적된 데이터에 의해 차별이나 편향이 발생할 수도 있다. 또한 사람이 의도하지 않았다 하더라도 인공지능이나 로봇이 데이터를 학습하는 과정에서 편향이 생길 수도 있다. 이에 더해 인공지능에 의해서 기존의 편향이 반복되기도 하고 더 확대될 수도 있다. 


두 번째 윤리적 문제는 갈등 상황의 보도에서 인공지능이나 로봇의 기계적인 판단에 의존할 수 있느냐의 문제이다. 일반적으로 기사의 보도는 여러 단계의 게이트키핑 과정을 겪는다. 그러나 알 권리와 개인의 프라이버시가 충돌하는 경우와 같이 선택을 해야 하는 상황에서 어디에 더 비중을 두어야 할지를 기계적으로 결정한다면 이에 따른 문제에 대한 책임 소재나 해결책 제시에 어려움을 겪을 수 있다. 따라서 사람이 통제를 하면서 편집을 하는 것이 공정한 보도를 위해 적절할지, 아니면 알고리듬이 자동적으로 기사의 배열과 편집을 하는 것이 더 나을지는 쉽게 판단하기 어려운 문제이다. 2016년 미국의 ‘빅데이터: 알고리듬 시스템, 기회와 시민권(Big data: A report on algorithmic systems, opportunity, and civil rights)’ 보고서 역시 데이터 기반의 빅데이터와 알고리듬 시스템이 객관적이라고 믿는 것은 위험하다고 경고하고 있다. 또한 로봇 저널리즘으로 인한 오보의 문제, 가짜 뉴스의 문제 등이 제기될 때 누가 책임을 질 것인가 하는 점 역시 해결하기 어려운 문제이다. 로봇의 알고리듬을 만든 프로그래머가 책임을 질 것인지, 아니면 로봇을 기사작성에 활용한 언론사가 책임을 져야 하는지, 아니면 현재의 기술로도 로봇은 어느 정도 자체적인 기계학습을 통한 판단이 가능하기 때문에 로봇에게 책임을 부여할지는 쉽게 판단하기 어렵다. 물론 기계학습을 가능하도록 프로그램을 만든 것은 사람이기 때문에 사람이 책임을 져야 하는 것이 원칙이지만, 제작자나 프로그래머, 언론사 내에서도 데스크나 편집자 중 누구에게 책임을 부과할 것인지를 결정하는 것은 여전히 어려운 문제라 하겠다. 

  

결국 인공지능과 관련된 윤리적 이슈를 이해하는 데 있어서 가장 핵심적인 사항은 인공지능이나 로봇을 어떤 존재로 인식할 것이냐 하는 것이다. 이에 따라 책임소재의 문제, 윤리적 또는 법적 분쟁의 해결 실마리를 찾을 수 있다. 커뮤니케이션 연구의 측면에서는 윤리연구의 기본적인 틀을 이해하고 이를 어떻게 로봇 저널리즘 등 커뮤니케이션 분야에서 발생할 수 있는 윤리적 이슈와 문제에 적용하고 해석할 수 있을지에 대해 고민할 필요가 있다.





박남기 교수는 사회과학대학 언론홍보영상학부 교수로 재직 중이며, 2013-2016년 언더우드 특훈교수를 역임했다. 커뮤니케이션 테크놀로지 사용의 사회심리학적 의미와 효과, 컴퓨터매개 커뮤니케이션, 인간-컴퓨터 상호작용 등을 연구하고 있다. 


*이 글은 박남기 교수가 2020년 <언론정보연구>에 출판한 논문인 “인공지능과 윤리”의 일부분을 발췌, 수정한 것임을 밝힌다. 



+ 네이버 오디오클립으로 듣기

 

vol. 전체

연세소식 신청방법

아래 신청서를 작성 후 news@yonsei.ac.kr로 보내주세요
신청서 다운로드