이미지 출처: whitehouse.gov
지난 10월 초, 미국 백악관에서는 Blueprint for an AI Bill of Rights를 발표했습니다. 제목 그대로 AI 권리 장전의 청사진을 그린 것인데요, 인공지능 시대를 맞이하며 자동화되는 시스템 속에서 미국인들의 권리를 보호하고, 올바르게 기술을 디자인하거나 활용할 수 있도록 5가지의 기본 원칙을 제안합니다. 이 원칙들은 비단 엔지니어뿐만 아니라 책임감 있는 자동화 시스템을 위해 각 개인과 정부 모두를 위한 것이라고 말합니다. 이번 글에서는, AI 권리 장전에 담긴 5가지 원칙들을 하나씩 살펴보고자 합니다.
안전하고 효과적인 시스템 (Safe and Effective Systems)
안전하지 않고 잘못된 시스템(Unsafe or Ineffective Systems)으로부터 보호 받아야 한다.
Stability.ai는 Stable Diffuison을 제작한 스타트업입니다. Stable Diffusion은 대중들도 사용할 수 있도록 공개되면서 엄청난 파장을 일으키고 있습니다. 원하는 그림의 설명을 입력하면 그에 맞는 결과물이 순식간에 만들어지니, 예술가들이 입지가 좁아지고 있다는 말까지 나오고 있습니다.
지금까지 인공지능은 Google, Meta, Microsoft와 같이 주로 거대 기업들이 주도해왔습니다. 심지어 Text-to-Image 모델이 비약적으로 발전한 것도, OpenAI에서 개발한 DALL-E 모델 덕분입니다. 모델들이 거대화되면서 그만한 모델을 학습시킬 수 있는 데이터와 설비를 갖추는 것이 중요했습니다. 이렇게 인공지능은 점차 대기업의 전유가 되는 것처럼 보였습니다.
하지만, 오히려 모델이 거대해질수록 일반인들과는 거리가 멀어지게 됩니다. 개인 컴퓨터의 사양으로는 대형 모델들을 활용하기 어렵기 때문입니다. 하지만 신생 스타트업, 소형 연구 기관들이 적극적으로 이 간극을 메워주면서 더욱 부상하고 있습니다. 내년에는 더욱 다양한 분야에서 연결점들이 생겨나지 않을까요?
알고리즘의 차별 방지 (Algorithmic Discrimination Protections)
안전하지 않고 잘못된 시스템(Unsafe or Ineffective Systems)으로부터 보호 받아야 한다.
알고리즘은 완전하지 않습니다. 때로는 인종 / 성에 따른 차별적인 결과를 보여주기도 합니다.
두 번째는 이러한 알고리즘의 차별을 방지하는 것입니다. 일반적으로 생각하는 인종, 피부색, 성별뿐만 아니라 성 정체성과 성적 지향, 종교, 나이, 국적, 장애 등을 포괄하여 법적으로 보호 받는 모든 권익에 대해 침해하지 않도록 해야 합니다.
데이터 정보 보호 (Data Privacy)
내부적인 조치로 데이터 남용으로부터 보호되어야 하고, 데이터가 어떻게 활용되는지 알 수 있는 기관이 있어야 한다.
인공지능 시스템 구축을 위해서는 데이터 수집이 필수적입니다.
하지만 이 데이터를 구축하는 과정에서 반드시 개인의 권익은 존중받아야 하며 내부적인 시스템을 통해 보호받아야 합니다. 데이터를 수집하더라도 합리적인 기대 범위 속에서 활용되어야 합니다. 그리고 난해하고 어렵게 만드는 사용자 경험을 보여주어서는 안 되며, 사용자 개인의 권리를 침해받을 수 있는 선택이 기본 옵션으로 되어 있어서는 안 됩니다. 반드시 수집 단계에서 동의 여부를 물어야 합니다. 그리고 이때에도 명료하고 쉬운 언어로 설명되어야 합니다.
고지와 설명 (Notice and Explanatioin)
자동화 시스템이 어떻게 사용되는지 알아야 하고, 당신에게 영향을 미친 결과물이 어떻게, 왜 만들어졌는지 이해해야 한다.
일상생활 속에서 이용 약관, 음식 성분표 등을 꼼꼼하게 읽어보신 기억이 있으신가요? 약관이라고 하면 왠지 어렵고 복잡한 내용들이 가득할 것 같아서 자세히 읽어보지 않는 경우가 많습니다. 하지만 데이터를 수집하거나 활용하는 데 있어 이런 어려움들은 없애야 합니다. 쉬운 언어로 쓰인 문서와 데이터가 쓰이는 시스템의 기능을 설명해야 합니다. 결과에 대한 설명도 포함되어야 하고요. 그리고 그 결과가 어떻게, 왜 나왔는지 설명되어야 합니다.
인간적인 대안, 고려, 그리고 대비책 (Human Alternatives, Consideration, and Fallback)
사용자는 선택하지 않을 수 있으며, 문제에 처했을 때 신속하게 고려하고 해결할 수 있는 사람에게 접근할 수 있어야 한다.
만약 알고리즘이 잘못된 방향으로 계속 수행되고 있다면, 어떻게 막을 수 있을까요? 예를 들면, 계속 원치 않는 광고가 화면에 보인다거나, 차별적인 광고가 보인다면 어떻게 행동해야 하는 것일까요? 인공지능의 판단에 의해 상해를 입거나 목숨까지 위험한 상황이 온다면 어떻게 통제해야 하는 것일까요?
이를 위해 인간적인 대안을 마련해야 합니다. 때로는 법적으로도요. 사고라는 것은 보통 뜻하지 않게 발생하기 때문에 문제를 예방하기 위해서는 정말 숙고의 과정을 거쳐야 합니다.
마치며
AI 권리 장전에 대한 5가지 원칙을 알아보았습니다. 원문에서는 이 원칙들을 어떻게 실용적으로 적용할 수 있는지 설명하고 있습니다. 요약하면 지속적인 감시 시스템과 피드백 체계를 갖춰야 한다는 것입니다. 알고리즘에서 차별적인 편향이 발생하거나 데이터에서 개인 정보를 침해하는 결과가 발생했을 때, 신속하고 빠르게 대응할 수 있는 체계가 마련되어야 합니다.
언뜻 듣기에는 뻔하고 당연한 내용들일 수 있습니다. 하지만 잊고 지낸다면 현실에서 반영되기 어려운 윤리적 원칙이기도 하고요. 실제로, 인공지능이 차별을 내포하거나 사고를 일으킨 사례도 적지 않게 찾아볼 수 있습니다.
가장 큰 국가 영향력을 가지고 있고 제일의 인공지능 산업 국가인 미국이 발표했다는 점을 고려한다면 국내의 인공지능 / IT 기업에서도 주의 깊게 살펴볼 필요가 있습니다. 물론, 무작정 따르기보다는 국내 환경에 맞게 해석하고 수정과 보완이 필요할 것입니다. 또 문서에서 말한 것처럼, 도메인의 특성에 따를 필요도 있고요.
이번 권리 장전은 자동화 시스템이 보편화되면서 초래할 수 있는 개인 소외와 권리의 침해 또는 축소에 대한 보호를 명문화했다는 데에서 의의를 갖습니다. 국내에서도 디지털 트랜스포메이션 움직임이 일어나면서, 점차 AI 자동화시스템이 보편화되기 있는 만큼, 다시 한번 윤리 의식을 일깨우는 계기가 되기를 바랍니다.
*본 콘텐츠는 deep daiv. 와의 제휴로 구성 되었습니다.
참고자료