시작페지 설정
최신 교육 과학 문화 스포츠 건강 관광 멀티미디어 포토 중국명승 특별추천 【량회특집】
고위층동향

‘AI얼굴 바꾸기’ 사기 빈번히 출현! 대비법은?

2023년 05월 25일 14:53

【글자 크게 복원 작게】【메모】【프린트】【창닫기
최근 'AI 얼굴 바꾸기'의 활용범위가 넓어지고 있지만 람용의 소지가 있고 AI 얼굴 바꾸기를 리용한 동영상 조작, 얼굴 바꾸기 사기 등 범죄까지 벌어지고 있다. 얼마전만 해도 AI '얼굴 도둑질' 때문에 10분 만에 430만 원을 사기당한 남성이 있었다.

‘AI얼굴 바꾸기’의 법적경계는 어디에 있을가? 일반인은 어떻게 대비해야 할가?

AI기술 람용위험 존재

반드시 경각성 높여야


인공지능의 발전을 표준화하기 위해 지난 12월, <인터넷정보서비스 심층 협력 관리규범>이 정식 발부되였고 합성데터와 기술관리규범을 명확히 했다. 그중 심층합성 서비스 제공자는 서비스를 사용해 생성하거나 편집한 정보내용에 사용에 영향이 없다는 표식을 추가해야 한다고 언급했다. 스마트대화, 합성목소리, 얼굴생성, 몰입형 시물레이션 장면 등 정보를 생성하거나 크게 변경하는 서비스를 제공하는 경우 대중이 혼동하거나 오인하지 않도록 눈에 띄게 표시해야 한다.

최근 일부 플랫폼과 기업은 ‘인공지능 콘텐츠 생성에 관한 플랫폼 규범 및 업계 창의’를 발부하여 생성식 인공스마트기술을 리용한 창작, 침권내용 발부를 명확히 금지했고 초상권, 지적소유권 등이 포함되며 이에 국한되지 않는데 일단 발견하면 플랫폼은 엄격하게 처벌한다.

개인을 놓고 말해서 형형색색의 ‘스타얼굴’에서 정신을 똑바로 차리는 것을 제외하고 허위선전에 빠지지 말아야 하고 더 중요한 것은 새로운 AI사기에 대해 반드시 예방의식을 가져야 한다.

정보를 보호하고 경각심 높여야 해. 자신의 신분증, 은행카드, 검증코드 등 정보를 쉽게 루설하지 않고 얼굴, 지문 등 개인 생물학적 정보를 타인에게 제공하지 않으며 영상 등을 과도하게 공개하거나 공유하지 말아야 한다.

다경로 인증, 신원을 확인해야 해. 만약 ‘지인’ ‘상사’ 등을 사칭해 SNS, 메시지 각종 사유로 송금을 유도하거나 계좌이체 거래행위를 하는 경우에 반드시 전화, 만남 등 다양한 경로를 통해 상대방의 신원을 확인해야 하고 확인없이 송금하지 말아야 한다.

만약 부주의로 사기를 당하거나 의심스러운 상황이 발생하면 증거보호에 주의해야 하고 즉시 96110으로 전화해서 경찰에 신고해야 한다.

래원: 인민넷-조문판(편집: 장민영)