[기고]생성형 AI: 위험에 대비하며 외연을 넓히다
페이지 정보
본문
[기고]생성형 AI: 위험에 대비하며 외연을 넓히다
압둘라 빈 샤라프 알감디(Abdullah bin Sharaf Alghamdi) 사우디 데이터인공지능청장
역사적으로 인류의 발전의 결정적인 순간은 혁신적인 기술로 탄생했다. 1400년대에는 인쇄술이 발명됐고, 1800년대에는 산업 혁명이 일어났으며, 오늘날 우리는 생성형AI의 시대를 마주하고 있다. 이 최신 기술은 혁신의 최전선에서 빠르게 우리의 미래를 만들어 가고 있다. 오픈AI의 GPT-4, 구글의 제미나이(Gemini), 클로드/엔스로픽(Claude/Anthropic), 달-E(DALL-E) 같은 고급 모델의 등장은 자연어 처리, 창의적인 콘텐츠 생성, 다양한 분야에서의 복잡한 문제 해결 방법을 개혁했다. 이러한 멀티모달 (다중모드) 트랜스포머(transformer)기반 언어 모델과 디퓨전 기반의 텍스트-이미지 생성 모델은 창의적인 예술부터 과학 탐구까지에 이르기까지 여러 산업에 걸쳐 상당한 영향을 미치고 있다. 하지만 이러한 강력한 툴 사용을 위해 정부, 업계 리더, 글로벌 기관은 이에 따르는 책임감을 신중하게 고려해야 하고 디지털 세계에서 진실을 지키고 견지하기 위해 잠재된 위험성을 낮추는 것은 무엇보다 중요하다. 생성형 AI와 관련된 가장 큰 리스크 중 하나는 실제 응용 프로그램의 오용으로 대중의 신뢰를 무너뜨리고, 사회 구조를 불안하게 하며 허위 정보를 퍼뜨릴 여지가 있다는 점이다. 가령, 영상에 등장하는 사람의 얼굴이나 신체가 다른 사람으로 보이도록 디지털 합성한 '딥페이크'는 악의를 가진 사람에 의해 사용돼 허위 정보가 유포될 수 있다. 특히, 부적절한 발언을 하는 정치인의 딥페이크는 여론을 조작하고 혼란을 발생시키며, 심지어 폭력까지도 촉발할 수도 있다. 이러한 생성형 AI기술 발전에 따라 AI가 진화적으로 도약할 수 있는 차세대 발판을 마련했는데, 이는 바로 일반인공지능 (Artificial General Intelligence)이다. AGI는 심층 강화학습(deep reinforcement learning), 신경-기호 시스템(neural-symbolic systems), 고급 전이 학습(advanced transfer learning)과 같은 아키텍처를 이용해 학습 능력을 보편화하는데 목표를 두고 있다. AGI는 기계가 사람처럼 이해하고 학습하며 다양한 분야에 지식을 적용할 줄 아는 AI의 미래를 의미한다. 그러나 우리는 생성형 AI에서 AGI로 나아가면서 맞닥뜨릴 잠재된 위험을 인지해야 한다. 인간의 인지력을 뛰어넘는 AGI는 자가 개선 시스템으로 인해 가치에 어긋나는 결정을 내리고 의도하지 않은 결과를 야기할 수 있다. 이는 역강화학습(inverse reinforcement learning)과 정형 검증(formal verification) 기법을 포함한 정렬 전략 개발의 중요성을 보여준다. 정렬불량으로 직업과 역할, 책임을 잃게 되고 결국 사람들이 삶의 목표의식에 영향을 주는 등 예기치 못한 잠재적으로 위험한 결과를 야기할 수 있기 때문이다. 전 세계적으로 정부와 민간 기업 차원에서 허위 정보, 딥페이크, 그리고 AGI 개발 등 AI 관련 리스크를 완화하기 위한 조치를 취하고 있는 것은 다행스러운 일이다. 유럽연합(EU)은 인공지능법안을 통해 지각적 해싱 및 블록체인 기반 콘텐츠 추적 같은 강력한 디지털 워터마킹 기법의 사용을 의무화하며 선례를 보여주고 있다. 이로써 EU는 AI가 생성한 콘텐트의 진위성을 보장해 민주적 절차와 정보 보안을 보호하고 있다. 뿐만 아니라, 유럽연합 사이버 보안청(ENISA)는 AI 기반 조작에 대한 대응 체계를 적극적으로 개발하고 있다. 미국은 의회 청문회를 비롯해 테크 기업과의 협력해 AI가 선거와 허위 정보 확산에 미치는 리스크에 대응하기 위해 노력 중이다. 한편, 구글, 메타, 유튜브와 같은 거대 테크 기업들은 정치 광고에서 AI 생성 콘텐츠임을 공지케 하는 정책을 시행하며 비윤리적인 AI사용을 막기 위해 노력하고 있다. 우리는 이런 공동의 노력을 환영하며, 사우디아라비아에서도 전략적 감독, 법률 체계 및 국제 협력을 통해 위험에 적극적으로 대응하고 있다. 사우디아라비아 데이터인공지능청(SDAIA)은 국가의 AI 전략을 총괄하고 관련 법안을 제안하며 공공과 민간 부문의 협력을 촉진해 책임 있는 AI 기술 발전 확보를 위한 업무에 자부심을 느끼고 있다. SDAIA 산하기관인 국립 AI 센터(National Center for Artificial Intelligence)는 실시간 허위 정보 탐지를 위해 딥러닝과 자연어 처리 기술을 이용한 고급 탐지 알고리즘 개발 등 선도적인 AI 보안 연구에 주력하고 있다. 또한 다각적인 접근 방식을 사용해 반사이버범죄 법안과 비정상행위 탐지를 이용하는AI 기반 사이버보안 프레임워크, 허위 정보와 딥페이크 시나리오에 오용되는 AI 대응을 위한 분산형 데이터 보호 연합 학습(federated learning)을 통합함으로써 대중의 신뢰를 강화하고 있다. 아울러, 2024년에는 투명성 및 법적 준수, AI 생성 콘텐츠의 명확한 식별을 강조하는 가이드라인을 발표해 책임감을 가지고 AI를 사용케 하고 있다 산업혁명 시기 인쇄술이 전 세계적으로 빠르게 확산되고 국가들이 혁신 기술을 상호 교환했듯이 AI 역시 급속히 확산될 가능성이 있다. 이를 관리하기 위해 정부 및 업계 리더, 글로벌 기관들은 국제적인 협력으로 AI에 필요한 윤리적 기준과 모범 사례를 마련해야 한다. 이는 바로 사우디아라비아 데이터인공지능청이 AI를 선도하는 정부와 기업, 기술이 한 자리에 모이는 글로벌 AI 서밋을 개최하는 이유이기도 하다. AI 기술의 투명성과 책임감, 윤리적 활용을 보장하는 포괄적인 규율 시행이 요구되어 지기에 AI 프레임워크를 강화하는 것은 중차대한 일이다. 편견 탐지 및 정정, 적대적 공격 저항, 윤리적인 AI 개발 등 AI 리스크 완화 연구에는 막대한 투자가 필요하다. 또한, 통합적인 AI 윤리 교육과 알고리즘 의사결정을 이해하기 위한 지침서로 대중의 디지털 리터러시를 높여 사회가 빠르게 발전하는 AI에 대비하는 것은 매우 중요하다. AGI와 관련된 리스크를 완화하기 위한 적극적인 방안이 마련되어야 하며, 이를 위해 컨테인먼트 알고리즘 및 AI 정렬 기법 개발과 함께 휴먼 인 더 루프(Human-in-the-loop, HITL) 프레임워크를 통합하고 AI 안전 연구를 통해 제어 메커니즘을 구축해야 한다. 이렇듯 공동의 노력으로 AI 거버넌스를 위한 공통 규범 마련함으로써 AI는 인류에게 이로운 방향으로 발전하게 될 것이다. 사우디 데이터인공지능청장 압둘라 빈 샤라프 알감디(Abdullah bin Sharaf Alghamdi) 출처: 전자신문, https://www.etnews.com/20241007000435, 24.10.7 |
- 이전글평행선 달리는 공공SW사업 대기업참여제한 논의…연내 시행 불투명 24.10.10
- 다음글오픈AI “40억달러 신용 대출 확보…총 유동성 100억달러” 24.10.07
댓글목록
등록된 댓글이 없습니다.