OpenAI zamyka aplikację do generowania wideo Sora, platformę, która umożliwia użytkownikom tworzenie filmów generowanych przez sztuczną inteligencję na podstawie zapytań tekstowych. Decyzja została podjęta po rosnącej krytyce dotyczącej potencjału aplikacji do nadużyć, w tym deepfakes i nieuprawnionego wykorzystywania znanych osobistości.
Powstanie i szybki rozwój Sory
Uruchomiona pod koniec 2024 r. platforma Sora szybko stała się popularnym centrum krótkich filmów generowanych przez sztuczną inteligencję. Użytkownicy stworzyli szeroką gamę filmów, od surrealistycznych scenariuszy (takich jak Michael Jackson kradnący KFC) po realistyczne deepfake. OpenAI wprowadziło Sorę jako samodzielną aplikację we wrześniu 2025 r., chcąc wykorzystać popularność platform takich jak TikTok i Instagram, ale posunięcie to wywołało falę wątpliwości etycznych i prawnych.
Negatywne reakcje i ograniczenia
Grupy poparcia, naukowcy i eksperci branżowi wyrazili obawy dotyczące zdolności Sory do generowania szkodliwych treści, w tym fałszywych treści tworzonych bez zgody. OpenAI zareagowało, ograniczając wykorzystanie wizerunków gwiazd, ale dopiero po naciskach ze strony spadkobierców i związków zawodowych. Łatwość obsługi i szybki rozwój aplikacji utrudniają skuteczną moderację.
Partnerstwo z Disneyem i zamknięcie
Zaledwie trzy miesiące wcześniej OpenAI zawarło trzyletnią umowę licencyjną z Disneyem, umożliwiającą użytkownikom Sory generowanie filmów z wykorzystaniem postaci z Marvela, Pixara i Gwiezdnych Wojen. Jednak decyzja OpenAI o zamknięciu Sory wydaje się odzwierciedlać niezdolność firmy do rozwiązania problemów związanych z niekontrolowanym generowaniem wideo przy użyciu sztucznej inteligencji. Disney potwierdził to posunięcie, twierdząc, że szanuje decyzję OpenAI o zmianie priorytetów.
Wpływ i plany na przyszłość
OpenAI zapewniło użytkowników, że funkcjonalność generowania obrazów ChatGPT pozostanie niezmieniona. Zamknięcie Sory uwypukla trudność w zrównoważeniu innowacji i względów etycznych w szybko rozwijającej się dziedzinie sztucznej inteligencji.
Ten incydent uwydatnia, że nienadzorowane narzędzia generatywnej sztucznej inteligencji mogą stwarzać znaczne ryzyko, zmuszając firmy do dokonywania trudnych wyborów między ekspansją a odpowiedzialnym rozwojem.
Szybkie zamknięcie Sory wskazuje na rosnącą świadomość w branży technologicznej co do potrzeby silniejszych zabezpieczeń i bardziej proaktywnych polityk moderacyjnych dla generatywnych technologii AI.
