개인정보보호위원회는 AI ‘대규모 언어 모델’(LLM)을 개발‧배포하거나 기반 서비스를 제공하는 6개 사업자(오픈AI·구글·마이크로소프트·메타·네이버·뤼튼)에 대해 개인정보 보호 취약점을 보완하도록 개선권고했다고 28일 밝혔다.
|
사진=게티이미지뱅크 |
이용자 질문과 AI의 답변 내용을 사람이 직접 열람·검토해 사생활을 침해할 수 있다는 우려도 나왔다. 사업자가 개인정보를 제거하지 않고 정보를 저장하는 일이 생길 수 있기 때문이다. AI가 복제 모델이나 오픈소스 형태로 배포될 경우 취약점이 발견돼도 즉시 개선하기 어려운 사례도 확인됐다.
개인정보위 관계자는 “인터넷에 우리 국민의 개인정보가 노출된 것을 탐지한 데이터를 AI 서비스 사업자에게 제공할 방침”이라며 “부적절한 답변에 대한 신고 기능을 반드시 포함하도록 개선권고했다”고 설명했다.
한편 개인정보위가 이날 발표한 ‘2023년 개인정보보호 및 활용조사’에 따르면 성인의 94.3%, 아동·청소년의 91.7%가 개인정보 보호를 중요하게 생각한다고 답했다. 제공하기를 주저하는 개인정보로는 성인과 아동·청소년 모두 주민번호 등 ‘고유식별정보’(37.4%, 21.1%)와 ‘인적사항’(32.0%, 57.6%)을 가장 많이 꼽았다.