본문 바로가기
NEWSLETTER/국제 LETTER

조용히 엄습하는 AI, "인공지능 안보 정상회의 개최"

by 칲 조 2023. 11. 1.
728x90
반응형

챗GPT와 같은 AI 기술이 널리 사용되면서 그 악용 가능성에 대한 우려가 커지고 있습니다. 이 문제를 해결하기 위해 세계 각국의 정부 관계자들, 마이크로소프트(MS)의 CEO, 그리고 챗GPT를 만든 오픈AI의 CEO 등이 한자리에 모이기로 했습니다.

 

한국공대학보

 

11월 1일부터 영국에서 세계 최초로 '인공지능(AI) 안보 정상회의'가 열릴 예정입니다. 이번 회의에서는 주요 7개 나라(G7)가 AI에 대한 '국제 행동강령'을 제시할 계획입니다. 이 강령은 AI 서비스를 제공하는 기업에 AI의 위험성을 파악하고, 이를 해결하기 위한 노력을 요구하는 내용을 담고 있습니다.

 

이로써, 주요 국가들이 AI의 위험성을 관리하는 기준점을 마련하는 데 중요한 발판을 제공할 것으로 보입니다. 이번 회의를 통해 AI 기술의 발전과 더불어 그 위험성을 적절히 관리하고, 더 안전하게 사용할 수 있는 방안들이 논의될 것으로 기대됩니다.

 


인공지능(AI) 기술이 발전하면서 그 위험성에 대한 우려도 커지고 있습니다. 그중에서도 제일 주목받는 세 가지를 살펴보겠습니다.

 

🤥 허위 정보 생성 기계

최근 생성형 AI 활용이 늘면서 AI가 틀린 정보를 생성하거나, 사실과 다른 정보를 그럴듯하게 만들어 내는 경우가 많아지고 있습니다. 이런 상황은 허위 정보가 확산하는 문제를 야기하며, "민주주의를 어지럽힐 수 있다"는 우려를 불러일으키고 있습니다.

 

😈 차별·혐오 발언 대잔치

AI가 학습 과정에서 차별적이거나 혐오적인 발언을 그대로 배워 사용하는 문제도 있습니다. 마이크로소프트의 챗봇 AI '테이'나 우리나라의 '이루다' 같은 챗봇이 사용자에게 폭력적이거나 비윤리적인 발언을 하는 경우가 있었습니다.

 

😨 AI가 해킹도해?

AI를 활용한 해킹이나 개인정보 유출의 위험성도 커지고 있습니다. 딥보이스나 딥페이크 기능을 활용한 피싱 사기가 유행하면서 AI의 보안 이슈가 부각되고 있습니다.

 


이런 AI의 위험성을 해결하기 위한 노력이 전 세계적으로 이루어지고 있습니다. AI의 발전은 물론, 그로 인한 위험성을 관리하고 대비하는 일이 중요해질 것으로 보입니다.

 

인공지능(AI)의 위험성에 대응하기 위해 국제기구, 각국 정부, 기업 등이 다양한 노력을 기울이고 있습니다.

 

🌏 AI 대응 통합

EU는 생성형 AI를 만드는 기업에게 머신러닝에 사용한 자료의 출처와 저작권을 밝히고, 서비스 출시 전 EU의 승인을 받도록 하는 계획을 발표하였습니다. 또한, 유엔은 'AI 시대 인권 규범'을 채택하였습니다.

 

👮 AI 규제하는 각국 정부

미국 정부는 마이크로소프트, 아마존 등 대기업의 AI 활용에 대한 규제를 제정할 계획입니다. AI가 채용 과정에서 차별하지 않도록 하고, AI가 개인정보를 수집하는 과정을 투명하게 공개하도록 하는 것이 그 목표입니다.

 

👥 뭉쳐야 산다.

AI를 개발·운영하는 기업들, 예를 들어 구글, 마이크로소프트, 오픈AI 등은 규제에 대응하기 위한 연구를 진행하고 있습니다. 이들은AI를 안전하게 사용할 수 있는 방법을 연구하며, AI 활용 방법에 대한 자체 가이드라인을 제작할 계획입니다.

 


그러나, 이런 조치들은 대부분 강제성이 없고, 누가 규제할 것인지, 누구를 규제할 것인지, 어떻게 규제할 것인지에 대한 구체적인 방안이 미정인 상태입니다. AI 규제에 대한 주도권을 잡기 위한 글로벌 경쟁이 벌어지고 있으며, 이 가운데 영국이 "AI 규제의 중심이 될 것"이라며 이번 '인공지능 안보 정상회의'를 개최한 것도 그런 주도권 싸움의 하나로 보입니다. 이러한 국제적 노력을 통해 AI의 위험성 관리에 대한 공동의 해결책을 찾아가는 과정이 계속될 것으로 보입니다.

728x90
반응형