OpenAI의 Sora 2 비디오는 AI 생성 지방 수치 콘텐츠의 놀라운 추세를 촉발합니다.
무슨 일이에요: 따라서 Netflix CEO인 Ted Sarandos는 인공 지능이 어떻게 사람들이 “더 나은, 더 빠른, 새로운 방식으로 이야기를 전달”하는 데 도움이 되는 놀라운 새 도구인지에 대해 이야기했습니다. 모든 것이 훌륭해 보이는데요, 그렇죠?
- 그러나 현실은 이렇습니다. 그가 말했듯이 OpenAI의 새로운 비디오 제작 도구인 Sora 2는 상상할 수 있는 가장 추악한 콘텐츠로 인터넷을 넘쳐나게 하는 데 사용되고 있습니다.
- 우리는 Instagram, YouTube, TikTok 전체에 퍼져 있는 뚱뚱하고 인종차별적인 ‘코미디’ 동영상에 대해 이야기하고 있습니다. 사람들은 믿을 수 없을 정도로 사실적인 클립을 만들 수 있는 Sora 2를 사용하여 악의적으로 비디오를 만들고 공유하고 있습니다.
- 그 예는 끔찍하다. 과체중 여성이 번지 점프를 하다가 다리가 그녀 밑으로 “붕괴”되는 장면이 담긴 동영상이 거의 백만 번 넘게 조회되었습니다. 또 다른 사진은 흑인 여성이 “KFC 바닥에 쓰러지는 모습”을 보여줍니다. 이는 인종차별주의와 신체 수치심의 역겨운 혼합일 뿐입니다. 그런 다음 배달원이 점심 식사 후 현관에서 떨어지거나 “부풀어 오르는” 모습을 보여주는 다른 것들도 있습니다.
- 그리고 가장 무서운 부분은요? 이 영상을 본 많은 사람들은 그것이 진짜라고 믿습니다.
중요한 이유: 이것은 아무도 이야기하고 싶지 않은 큰 AI 문제입니다. 스테로이드에 대한 증오 콘텐츠를 생성했습니다.
- 실제 생산 기술을 갖춘 사람이 엄청난 시간이 걸리던 작업을 이제 불쾌한 사람이 몇 초 만에 생성할 수 있습니다.
- 이것은 단지 “나쁜 취향”이 아니라 실제 윤리적 위기입니다. 그것은 값싼 웃음을 위해 사람들에 대한 가장 해로운 고정관념을 대량 생산하고 증폭시키는 방법입니다.
- 또한 OpenAI와 같은 AI 회사의 “가드레일”이 그들의 도구가 실패하고 있다고 주장하고 있음을 보여줍니다. 비참하게도 이런 종류의 폭력적이고 증오적인 콘텐츠를 차단해야 하지만 분명히 그렇지 않습니다.

내가 관심을 가져야 하는 이유: 소셜미디어를 사용하신다면 이미 보고 계십니다. 이것은 단지 무해한 온라인 트롤이 아닙니다.
- 이 쓰레기는 사람들이 세상, 특히 어린이를 보는 방식을 형성합니다.
- 그리고 많은 사람들이 AI가 생성하는 것과 실제의 차이를 구분할 수 없기 때문에 현실, 어두운 유머, 순수하고 순수한 증오 사이의 경계가 완전히 모호해집니다.
- 물론 이러한 동영상 중 하나가 입소문을 타면 십여 명의 다른 사람들이 클릭과 좋아요를 위해 자신만의 버전을 만들도록 독려합니다.
다음은 다음과 같습니다. 지금까지 OpenAI는 지방혐오성 콘텐츠의 새로운 물결에 대해 완전히 침묵했습니다.
- 그러나 이는 이러한 강력한 도구가 사람들에게 해를 끼치고 괴롭히는 데 사용될 때 누가 책임을 져야 하는지에 대한 절실히 필요하고 불편한 대화를 강요하고 있습니다.
- 규제 당국은 분명히 관심을 기울이기 시작했습니다. 이러한 AI 도구가 필터처럼 사용하기 쉬워짐에 따라 실제 과제는 이 모든 “창의성”이 우리 자신의 인류를 희생시키는 것을 어떻게 방지하는지 알아내는 것입니다.
