마이크로소프트 엔지니어가 회사의 AI 도구가 폭력적이고 성적인 이미지를 생성하고 저작권을 무시한다고 경고

반응형

A Microsoft engineer has warned that the company's AI tools are creating violent and sexualized images and ignoring copyright. Microsoft engineer Shane Jones said that while testing a co-pilot designer, it used copyrighted images without authorization, and displayed terms related to abortion rights, and a teenager charging with a rifle, images of sexually glorified women in violent scenes, violent and sexualized images that included underage drinking and drug use. including underage drinking and drug use. Jones alleges that he reported the issues to Microsoft, but no action was taken. He also accused Microsoft of trying to hide the problem. In response, Microsoft denied Jones' claims and said that Co-Pilot Designer was designed to be used in a safe and responsible manner.

 

마이크로소프트 엔지니어가 회사의 AI 도구가 폭력적이고 성적인 이미지를 생성하고 저작권을 무시한다고 경고했다. 마이크로소프트 엔지니어 셰인 존스(Shane Jones)는 코파일럿 디자이너를 테스트하면서 저작권이 있는 이미지를 무단으로 사용하고 낙태 권리와 관련된 용어, 소총을 들고 돌격을 하고 있는 청소년, 폭력적인 장면에서 성적으로 미화된 여성 이미지, 미성년 음주 및 마약 사용을 포함하는 폭력적이고 성적인 이미지를 생성하는 등의 문제점을 발견했다. 존스는 이 문제를 마이크로소프트에 보고했지만 제대로 된 조치가 취해지지 않았다고 주장하고 있다. 그는 또한 마이크로소프트가 이 문제를 숨기려 한다고 비난했다. 이에 마이크로소프트는 존스의 주장을 부인하며 코파일럿 디자이너는 안전하고 책임감 있는 방식으로 사용될 수 있도록 설계되었다고 밝혔다.

 

 

반응형