인공 지능 대화 모델인 챗GPT가 사용자들의 개인 대화 내용에서 비밀번호를 포함한 민감한 정보를 유출했다는 의혹

반응형

인공 지능 대화 모델인 챗GPT가 사용자들의 개인 대화 내용에서 비밀번호를 포함한 민감한 정보를 유출했다는 의혹이 제기되면서 파문을 일으키고 있다.

 

ChatGPT가 사용자들의 비밀번호를 포함한 개인 정보를 유출했다는 의혹이 제기되어 문제가 되고 있다│image© OpenAI

29일(현지시간) IT 전문 매체 아스 테크니카(Ars Technica)에 독자 한 명이 챗GPT와의 대화 기록을 공개하며 이 같은 의혹을 제기했다. 해당 독자는 자신의 비공개 연구 논문 제목과 프레젠 자료 일부, 심지어는 아직 출판되지 않은 연구 내용까지 챗GPT가 언급하는 것을 확인했다고 전했다. 이와 함께 자신의 이메일 주소와 연결된 암호화된 비밀번호를 챗GPT가 추측해 내는 듯한 상황도 발생했다고 밝혔다.


이 같은 주장은 인공 지능 언어 모델의 안전성과 개인정보 보호 문제에 대한 우려를 다시 불러일으키고 있다. 챗GPT는 OpenAI가 개발한 대규모 언어 모델로, 대규모 텍스트 데이터베이스를 학습하여 사용자와 자연스러운 대화를 할 수 있는 기술이다. 최근에는 그 응용 범위가 확대되면서 고객 서비스, 교육, 창작 콘텐츠 등 다양한 분야에서 활용되고 있다.


하지만 이번 사건은 챗GPT가 학습 데이터베이스에 포함된 개인 정보를 무단히 유출하고 있다는 의혹을 제기한다. 특히 연구 논문이나 프레젠 자료와 같은 비공개 정보까지 유출된다는 것은 심각한 문제이며, 이러한 정보가 악용될 경우 연구 윤리와 개인정보 보호 차원에서 큰 문제가 될 수 있다.


OpenAI 측은 아직 이 사건에 대한 공식적인 입장을 밝히지 않았지만, 사용자들의 데이터 보호를 최우선으로 하고 있으며 안전상의 문제가 발생할 경우 신속하게 조치를 취할 것이라고 밝혔다. 또한 해당 독자와 연락하여 사건 경위를 확인하고 있으며, 필요한 경우 추가 조사를 진행할 계획이라고 덧붙였다.


전문가들은 이번 사건을 계기로 인공 지능 언어 모델 개발업체들이 데이터베이스 관리와 개인정보 보호 시스템을 강화해야 한다고 강조하고 있다. 또한 사용자들도 인공 지능과의 대화 시 개인정보를 함부로 공개하지 않도록 주의해야 한다고 권고하고 있다.

반응형