UPDATED. 2024-04-27 17:15 (토)
 실시간뉴스
[여성과 법] 챗GPT와 개인정보
[여성과 법] 챗GPT와 개인정보
  • 전현정
  • 승인 2023.07.15 08:00
  • 댓글 0
이 기사를 공유합니다

새로운 기술개발에는 새로운 위험이 따르고 이를 막기 위한 규제 문제가 뒤따른다. 생성형 인공지능(AI)인 챗GPT가 각광을 받으면서 그에 따른 부작용이나 악용을 막기 위하여 여러 나라에서 어떠한 규제를 할 것인지 논의하고 있다.

가장 강력한 입장은 유럽연합(EU)에서 나타났다. 2년 전부터 논의해 온 인공지능법(Artificial Intelligence Act) 초안이 유럽 의회에서 표결에 부쳐질 예정이다. 이 법이 통과되면 세계 최초의 AI 규제 입법이 된다. 이 법은 물리적 피해 및 시스템화 된 편견과 같이 눈에 잘 띄지 않는 피해, 오용으로 인한 피해 등으로부터 사람을 보호하는 것이 원칙이다. AI를 위험도에 따라 수용 불가능한(unacceptable risk) 위험, 고위험, 제한된 위험, 최소 위험으로 구분하여 규제한다. 매우 위험한 인공지능은 인권침해의 우려가 매우 커서 사용을 금지하고 이를 어길 경우 전 세계 매출액의 6%까지 과징금을 부과한다. 고위험 인공지능에 대하여는 사용을 금지하지 않지만, 데이터 거버넌스, 투명성, 인적 감독과 관련된 의무 등 엄격한 절차를 준수할 것을 요구한다. 입법 과정에 대해 많은 국가와 글로벌 기업이 주목하고 있는데, 그 과정이 순탄하지만은 않을 것으로 예상한다.

얼마 전 미국에서 AI 분야에 종사하는 경영진과 개발자, 연구자 등이 ‘인공지능(AI)은 인류를 멸망시킬 위험이 있다.’는 공동서명에 참여하였다. 여기에는 일론 머스크를 비롯하여 유발 하라리, 알파벳 산하 AI 기업 딥마인드의 연구진 등이 참여했다. 성능이 뛰어난 AI가 개발되면서 그로 인한 위험을 경고하고, 독립적인 외부 전문가가 감독하는 안전한 프로토콜을 개발할 때까지 최소 6개월 동안 AI 개발을 중단하자는 내용을 담고 있다. 일론 머스크는‘거대 AI 업체들은 이 주장을 흘려들을 수도 있지만, 적어도 이런 목소리가 있다는 것은 알려야 한다’고 평했다.

세계여성이사협회에서 생성형 AI에 관한 강연이 열렸다. 그날 강연에서 패널의 토론이 흥미로웠다. 사람이 기계와 대화하면서 자신도 모르게 노출하는 개인정보는 심각한 문제를 불러일으킬 수 있다. 챗GPT가 사람이 아닌 기계라서 사람과 대화를 하는 경우보다 더 편하게 은밀하고 내밀한 내용을 얘기하기도 한다. 그러나 챗GPT는 이전에 습득한 정보를 다른 사람과 대화하는 과정에서 잘못 노출시킬 우려가 있다. 더 무서운 것은 챗GPT의 근본 속성이다. 대화를 나눈 모든 정보를 기억한다. 기계와 나눈 인간의 대화가 어떻게 쓰일지 알지 못한다. 이런 부작용을 막기 위해 정보 저장에 동의하는지를 미리 확인한다지만, 한계가 있을 수밖에 없다.

형사상 명예훼손죄는 공연히 사실을 적시하여 사람의 명예를 훼손하는 경우에 성립한다. 형사상 명예훼손죄의 구성요건인 ‘사실의 적시’에는 허위 사실뿐만 아니라 진실인 사실도 포함된다. 가치판단이나 평가를 내용으로 하는 의견표현이 아니라면 타인에 관한 사실의 적시로서 형사처벌의 대상이 될 수 있다. 인터넷에 의한 명예훼손이 많이 문제되고 있는데, 챗GPT에 대한 정보제공으로 인한 명예훼손 문제가 생길 날도 멀지 않은 것 같다.

많은 사람들이 챗GPT를 쉽게 이용하면서, 잘못된 정보로 인해 생기는 챗GPT의 환각 현상도 심각한 문제이다. 기계가 사람과 대화하면서 옳지 않은 내용을 학습하고 다른 사람에게 잘못된 정보를 사실인 것처럼 제공한다. 상당한 지적 능력이 있는 사람도 챗GPT의 대답이 사실인지 아닌지 확인하기가 어렵다. 챗GPT의 환각 작용에 대한 해결책으로는 정보에 대한 정확도가 높아질 경우에만 답변을 하도록 하는 방안과 다양한 답변에 대한 선택과 책임을 인간이 지는 방안이 제시되고 있다.

인간은 자신의 틀에 따라 인식하고 선택적으로 기억하며 자신도 모르게 망각하며 살아간다. 챗GPT가 나오면서 인간세계는 놀라움과 당혹감을 느꼈을 수밖에 없다. 인간의 인식과 기억, 그리고 판단에 관한 전제가 기계 앞에서 무너져버릴 수 있다는 위기감이 있기 때문이다.

AI 기술이 어떻게 발전할지 예측할 수 없다. 미래에는 언어뿐만 아니라 시각과 청각 능력까지 갖춘 사람 같은 AI가 탄생할 것으로 기대한다. 장병탁 서울대 AI연구원장은 ‘인간과 AI는 함께 살고 같이 진화할 것’이라고 하였다. AI 기술이 발달하면 이에 따라 규제도 발전된 모습을 보여야 할 것이다.

인공지능기술을 규제해야 한다는 목소리가 크지만, 이러한 규제로 말미암아 기술발전이 저해될 것이라고 우려하는 목소리도 적지 않다. AI 기술을 제대로 알지 못한 상태에서 섣불리 규제를 할 수 없을 것이다. 또한 엄격한 규제를 한다고 해도 그것이 전 세계적으로 똑같이 통용될 것이라는 믿음이 없다. 너무 엄격한 규제를 유지할 경우에는 관련 산업의 발달이 뒤처질 수 있다. AI 기술이라는 거대한 흐름 속에서 산업의 발달과 개인정보 보호가 조화를 잘 이루고 인간의 존엄이 손상되지 않도록 균형점을 찾아야 한다.

글 전현정 변호사(법무법인 케이씨엘)

 

전현정 변호사는…

서울대 법대 출신으로 1990년 사법시험에 합격했다. 23년간 판사로 일하다 서울중앙지법 부장판사를 끝으로 2016년 법원을 떠났다. 현재는 법무법인 KCL 파트너 변호사다. 한국여성변호사회 부회장, 법제처 법령해석심의위원으로 활동 중이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.