본문 바로가기
NEWSLETTER/산업 LETTER

무섭게 발전하는 AI, 각 나라 AI관련 규제 이모저모

by 칲 조 2023. 11. 15.
728x90
반응형

AI의 발전은 최근 몇 달 동안 우리의 삶을 급격히 변화시켰습니다. 오픈AI를 시작으로 많은 기업들이 AI 개발에 뛰어들고, 그 결과 우리는 일상에서 AI의 다양한 혜택을 체험하게 되었습니다. 하지만, 이러한 빠른 발전 속에서 AI의 여러 문제점이 도출되기 시작했습니다. 저작권 침해, 개인정보 침해, 인권 침해 등 다양한 이슈가 제기되면서 AI 규제에 대한 필요성이 대두되었습니다.

바야흐로 AI 시대입니다. 우리는 AI가 어떤 문제를 만들어 내고 있는지, 그리고 이를 해결하고자 세계 각국이 어떤 AI 규제 방안을 고심하고 있는지 제대로 이해해야 하는데요. 한 번쯤 AI에 대해 생각해 볼 만한 내용을 담았습니다. AI가 초래한 여러 문제와 세계 각국의 규제 그리고 AI 규제를 둘러싼 여러 쟁점을 정리해 보겠습니다.


AI가 초래한 여러 문제

 

😒 저작권 침해 이슈

AI가 초래하는 저작권 침해 이슈는 크게 2가지로 나뉩니다. 첫 번째는 AI가 학습 과정에서 인간이 만든 저작물을 활용하는 경우입니다. AI는 학습을 위해 방대한 양의 데이터가 있어야 하는데, 이 과정에서 의도적이든 비의도적이든 저작권이 있는 자료를 학습 데이터로 사용하는 경우가 많습니다. 이런 상황에서 AI가 만든 결과물이 원본 저작물과 유사하다면, 저작권 침해 문제가 발생할 수 있습니다.

 

두 번째 이슈는 AI가 창작한 콘텐츠의 저작권에 대한 문제입니다. 일반적으로 저작권은 인간이 창작한 작품에 부여되는데, AI가 만든 콘텐츠가 저작권을 가질 수 있는지에 대한 논란이 있습니다. 이는 결국 AI를 인간과 동등한 창작 주체로 인식하는 것과 관련되어 있습니다. 또한, AI가 창작한 콘텐츠의 저작권은 AI 개발자에게 속하는 것인지, 아니면 AI 자체에서 속하는 것인지에 대한 문제도 있습니다. 현재로서는 AI가 만든 콘텐츠에 저작권을 부여하는 것은 법적으로 인정되지 않지만, 미국 저작권청은 AI가 창작한 콘텐츠에 대한 저작권 부여에 대한 여론을 수렴하고 있습니다.

 

💣 AI 악용 사례 증가

AI가 고도로 발전할수록 AI를 악용했을 때 발생하는 나쁜 영향도 커집니다. 지난 5월에는 SNS에 미국 국방성 근처에서 큰 폭발이 발생했다는 가짜 소식이 올라와 미국 증시에 큰 충격을 주었습니다. 이처럼 AI를 활용한 사진 합성 기술, 딥페이크 등으로 가짜 정보가 만들어지고, 이는 사회 전반에 해를 끼치게 됩니다. 또한 AI는 해킹, 사이버 공격, 심지어 군사적 악용 등의 위험성도 내포하고 있습니다.

 

AI가 만든 사진

 

😥 AI도 편향될 수 있다.

AI가 만들어 내는 결과물은 학습 데이터에 기반하기 때문에, 만약 학습 데이터가 편향되어 있다면 AI의 결과물 역시 편향될 가능성이 높습니다. ChatGPT 같은 생성 AI가 때로 부정확하거나 편향된 답을 내놓는 이유도 편향된 학습데이터 때문인 경우가 많습니다. 대표적으로 2020년 출시된 AI 챗봇 이루다가 AI 챗봇 '이루다'가 사용자의 비윤리적인 발언, 혐오 발언, 성차별적 발언 등을 학습하여 문제를 일으켰습니다. 이처럼 AI에 편향된 데이터가 입력되거나, 비윤리적인 발언이 섞이거나, 소수 집단의 데이터가 제대로 반영되지 않는다면, AI가 만든 결과물은 사회적 차별을 야기하고, 사회 갈등을 더욱 심화시킬 수 있습니다.

 

🤔 AI의 잘못, 누구의 책임?

AI로 인해 발생한 문제의 책임을 누구에게 물을 것인지도 생각해 봐야 합니다. AI를 개발한 기업, AI를 잘못 사용하거나 악용한 사용자, AI 그 자체 중 누구의 책임인지를 결정하기는 어렵습니다. 이는 AI가 어떤 데이터를 학습하고, 어떻게 그 결과물을 도출했는지를 명확히 알아내는 것이 기술적으로 어렵기 때문입니다. 이에 대한 명확한 해답을 제시한 기관은 아직 없습니다.

 

🤔 너는 AI, 사람이야?

AI가 지금보다 더 발전하면 AI와 사람을 구분하지 못하게 될 수 있다는 점도 생각해 볼 만한 이슈입니다. 이에 대비하여 유럽과 일부 기업들은 AI가 만든 창작물을 인간이 만든 창작물과 구분하기 위해 AI 창작물에 워터마크를 넣는 기술을 개발하고 있습니다. 하지만, 현재로서는 모든 AI 창작물에 워터마크를 넣는 것은 기술적으로 아직 어려운 상황입니다.


세계 각국의 AI 규제

 

🇪🇺 유럽의 AI 규제

유럽은 2019년 신뢰성을 위한 3대 주요 요소(적법성, 윤리성, 기술적 견고성)를 담은 AI 윤리 가이드라인을 발표했고, 이후 2023년 6월에는 인공지능법안(AIA)을 가결하였는데, 이 법안은 AI를 허용할 수 없는 위험, 고위험, 저위험, 최소위험으로 분류하고, 이에 따른 규제 강도를 다르게 하는 방식을 채택하였습니다. 특히 허용할 수 없는 위험으로 분류된 AI는 사용을 원천적으로 금지하며, 고위험 AI에 대해서는 강력한 요구사항을 부과하였습니다.

 

✌️ 유럽 AI 규제의 핵심 2가지

유럽의 인공지능법안은 명확하게 하지 말아야 할 행위들을 명시하였습니다. AI의 악용 가능성이 있는 여러 상황을 정의하고, 이에 따른 구체적인 규제를 설정하여, 규제를 준수하지 않는 기업에게는 큰 벌금을 부과하는 방식을 채택하였습니다.

 

이러한 접근법은 유럽이 기업에 대한 반독점 규제에서 보여주던 스타일이 AI 분야에도 그대로 반영된 것으로 볼 수 있습니다. 유럽의 인공지능법안은 앞으로 AI가 준수해야 할 규정들을 계속 업데이트할 것이기 때문에, 이는 AI 규제에 대한 교과서 역할을 할 수 있을 것으로 보입니다.

 

🇨🇳 중국의 AI 규제

중국은 2019년 베이징 AI 원칙을 발표하고, 이를 통해 AI의 신뢰성을 확보하기 위한 인증 체계를 구축하였습니다. 또한, 2023년에는 생성형 AI에 대한 관리 지침을 마련하였습니다. 중국은 AI 기업들이 정부의 허가를 받아야 LLM(Language Model)을 출시할 수 있는 라이센스 제도를 운용하고 있습니다. AI가 출시되기 전에 문제가 없을지 정부가 검사하겠다는 것입니다.

 

🇺🇸 미국의 AI 규제

미국은 기본적으로 AI 규제를 기업의 자율에 맡겨두는 방향을 선호하였습니다. 하지만 AI의 고도화와 함께 여러 문제가 발생하면서, 정부 차원에서 규제 법안을 준비하고 있습니다. 최근에는 바이든 대통령이 AI 규제 행정명령에 서명하였는데, 이는 기업이 AI 모델을 개발할 때 안전 테스트를 진행하도록 하고, 국가 안보에 위험을 초래할 수 있는 결과가 나오면 이를 정부에 공유하도록 하는 내용을 담고 있습니다. 또한, AI가 만든 콘텐츠에 라벨을 부착하여 누구든지 해당 콘텐츠가 AI에 의해 생성된 것인지 알 수 있도록 하는 지침도 준비 중입니다. AI 행정명령은 아직 구체적인 규제 지침은 아니지만, 미국 정부가 AI 규제를 시작했다는 신호탄의 역할로 충분하다는 평가를 받고 있습니다.

 

🇰🇷 한국의 AI 규제

한국에서는 AI 규제에 대한 논의가 활발하게 이루어지고 있습니다. 그러나 현재는 규제보다는 AI 산업의 발전과 세계적인 수준의 경쟁력 향상이 우선시되는 분위기입니다. 이에 따라, 정부도 AI 규제안을 마련할 예정이지만, 그보다는 산업 육성과 생태계 조성에 초점을 맞춘 제도를 구축하겠다는 방향을 밝혔습니다.

 

🇬🇧 28개국이 참여한 블레츨리 선언

2023112, 영국, 미국 등 28개의 주요 선진국이 참여한 AI 안전 정상회의가 개최되었습니다. 이 회의에서는 AI의 위험이 파국적일 수 있으며, 이에 대해 국제 사회가 공동으로 대응해야 한다는 점에 대해 합의하였고, 이를 '블레츨리 선언'이라 명명하며 공개하였습니다. 이 선언은 AI가 가져올 위험에 대해 주요 국가 간 국제적인 협력을 약속한 것으로, 상징적인 의미를 지니고 있습니다. 한국 역시 이 '블레츨리 선언'에 참여한 대표 28개국 중 하나입니다.


AI 규제와 관련한 각종 쟁점 짚어보기

 

⛔️ 6개월간 AI 개발 멈추자

일부 단체와 AI 전문가들은 GPT-4보다 강력한 AI 연구를 일시 중단하고, AI의 위험성을 통제하기 위한 체계를 마련하는 것에 집중하자는 주장을 하였습니다. 이에는 일론 머스크, 스티브 워즈니악 등 유명 인사들도 참여하였습니다. 그러나 이와 반대의 의견도 상당히 많습니다. 구글 CEO 순다 피차이와 MS의 빌 게이츠는 AI 개발을 현실적으로 중단하는 것은 불가능하다고 주장하였고, 학계에서도 AI 개발을 중단하기보다는 안전한 AI 개발을 위한 노력과 규제 방안 마련을 병행해야 한다는 주장이 제기되었습니다. AI 개발을 전면 중단하는 것은 현실적으로 어려울 것이지만, 이러한 논의 자체가 AI의 위험성을 인식하는 데 중요한 역할을 하고 있습니다.

 

🤔 산업 성장 vs 위험성 규제

AI를 규제해야 한다는 요구와 산업의 성장이라는 목표 사이에서는 항상 논란이 있었습니다. 이미 AI 산업 선두를 달리고 있는 국가를 중심으로 AI 규제에 대한 목소리가 나오고 있고, 오픈AI 같은 AI 기업도 규제가 만들어져야 한다며 목소리를 내고 있습니다. 하지만 촘촘한 규제는 AI 분야에서 이제 막 성장하고 있는 국가와 기업들에는 장벽이 될 가능성도 있습니다. 일각에서는 이미 고도로 발전한 AI 모델을 보유하고 있는 AI 기업들이 경쟁사들의 추격을 막기 위해 규제에 찬성하는 것이라는 의심의 목소리도 있습니다.

 

💦 규제 최소화를 위한 노력

오픈AI의 CEO 샘 알트먼은 AI 규제에 대해 중소기업들은 제외되어야 한다는 주장을 펼쳤습니다. 또한, 여러 AI 기업은 AI 규제의 필요성에 공감하면서도, AI 기술이나 알고리즘을 직접 규제하는 대신, AI로 생성된 콘텐츠에 워터마크를 남기는 등 기술 발전에 영향을 미치지 않는 방안을 제안하기도 했습니다.

 

💸 AI도 세금 내야 한다?

일부에서는 AI가 세금을 내야 한다는 주장도 제기되고 있습니다. 빌 게이츠는 AI가 사람의 일을 대체하게 될 미래에는, AI 세를 도입하여 AI로 인해 실직한 사람들을 지원해야 한다는 의견을 밝혔습니다. 또한, AI는 사람이 만든 데이터를 학습하여 발전하므로, AI를 활용해 수익을 창출하는 기업들은 AI 세를 내야 한다는 주장도 있습니다. 현재로서는 AI 세가 실현될 것인지는 불확실하지만, AI 발전에 따른 사회 변화에 대응할 수 있는 방안을 미리 생각하는 것은 필요하다는 의견이 있습니다.

 

 

블레츨리 선언에서 볼 수 있듯 전 세계적으로 AI 규제에 대한 필요성에 공감하는 분위기입니다. 앞으로도 AI는 더욱 빠르게 발전할 것으로 보이는데요. AI가 가져올 여러 위험을 미리 알고, 어떤 규제 방안이 효과적일지, 앞으로 AI 규제는 어떤 방향으로 나아가야 할지 함께 고민해봐도 좋을 것 같습니다.

728x90
반응형