[사설]생성형 AI 악용, 신종 금융사기 주의보 > IT News

본문 바로가기

사이트 내 전체검색

뒤로가기 IT News

[사설]생성형 AI 악용, 신종 금융사기 주의보

페이지 정보

작성자 ldskorea 작성일 24-07-04 17:05 조회 1,178 댓글 0

본문

[사설]생성형 AI 악용, 신종 금융사기 주의보

 

 

news-p.v1.20240628.9361f5434d3f428dada907b58078a6e3_P1.jpg

생성형 AI가 전산업에 적용되면서 신종 금융사기 위협이 잇따르고 있다.

 

 

 생성형 인공지능(AI)을 악용한 신종 금융사기로 손실 금액이 400억달러에 달할 것이라는 전망이 나왔다. AI기술이 여러 산업에 접목되며 새로운 혁신 마중물로 부상했지만 보안위협과 사이버테러, 금융사기 수법을 더욱 정교하게 만드는 역효과도 발생하고 있다

최근 컨설팅업체 딜로이트는 미국에서 생성형 AI로 인한 사기 손실 규모가 2023년 123억달러(약 17조원)에서 2027년 400억달러(약 55조원)까지 늘어날 것이라고 전망했다.

AI기술은 양날의 검이다. 자칫 잘못 활용할 경우 딥페이크뿐 아니라 생성 AI 이메일 사기, AI 보이스피싱 등 다양한 지능형 금융사기를 촉발한다. 생성형 AI 이메일 사기로 인한 손실은 2027년까지 총 115억달러(약 15조원)에 달할 것으로 추정됐다.

많은 AI기술전문가들은 정보 진위 확인에 신뢰성이 민감한 금융정보가 제 3자에게 유출될 가능성에 주목해야 한다고 제언한다. 일부 해외 금융사의 경우 챗GPT로 인해 고객정보 등이 외부로 유출될 수 있다는 우려 때문에 챗봇 사용을 제한하고 있는 곳이 늘고 있다. JP모건, 뱅크오브아메리카, 씨티그룹, 골드만 삭스 등이 대표적이다.

은행과 핀테크 등 기업은 이러한 위협에 대비해 AI와 최신 기술에 R&D를 늘리고. 시스템 전반 보안 강화 대비책을 마련해야 한다. 기존의 위험 관리 프레임워크는 AI기술로 인한 리스크 관리에 적합하지 않기 때문이다.

빨라지는 AI 변화에 대응하기 위해 전문적인 3자 기술업체와의 동맹, 협업관계도 필요하다. 또 보안 인재 영입을 통한 대응 체계 구축뿐 아니라 광범위한 훈련과 학습·조직문화 조성도 서둘러야 한다.

특히 금융권의 경우 생성AI 알고리즘에 주입된 생성형 AI의 혁신성에도 불구하고 또다른 논란이 제기되고 있다. 바로 학습데이터의 편향성에 따라 신출물 신뢰도가 저하될 가능성이다. 챗GPT의 경우 영어권 데이터의 학습 비중이 높아 한국어 이해 역량이 상대적으로 저조할 수 밖에 없다.

초거대 AI는 산업 지형을 바꿀 파괴적 혁신이라는 데에는 변함이 없다. 다만 여러 부정적인 역기능을 해소할 수 있는 제도적 안전장치가 수반되어야 한다. 우수인력 확보와 양성 교육이 필요하다. 생성형 AI 관련 데이터 구축, 컴퓨팅 자원 제공, 윤리 및 신뢰성 확보를 위한 민관 협력도 절실하다.


출처: 전자신문, https://www.etnews.com/20240704000290, 24.7.4

 

 

기사 원문 읽기

 

댓글목록 0

등록된 댓글이 없습니다.

Copyright © 소유하신 도메인. All rights reserved.

사이트 정보

회사명 : (주)리눅스데이타시스템 / 대표 : 정정모
서울본사 : 서울특별시 강남구 봉은사로 114길 40 홍선빌딩 2층 / tel : 02-6207-1160
대전지사 : 대전광역시 유성구 노은로174 도원프라자 5층 / tel : 042-331-1161

PC 버전으로 보기