Sztuczna inteligencja zabija kreatywność? Wręcz przeciwnie – AI wnosi ją na nowy poziom.
Sympatycy polskiej sceny rapowej mają powód do radości. Po latach nieobecności powrócił Quebonafide, który przez wielu jest uważany za najlepszego rapera obecnego pokolenia – a jeśli nie najlepszego, to z pewnością najbardziej oryginalnego. Artysta niespodziewanie opublikował przed weekendem nowy kawałek, który w momencie pisania tego tekstu dobija już do 2 milionów odtworzeń. My zaś zachwycamy się nie samą muzyką, a wideo, które zostało w sporej części wygenerowane przy pomocy AI. To najlepszy pokaz możliwości sztucznej inteligencji, jaki ostatnio widziałem.
Wizualne arcydzieło – tych narzędzi użyto do stworzenia klipu
O AI mówi się często, że zabija kreatywność i wysysa duszę z procesu twórczego – wszyscy krytycy, którzy tak twierdzą, powinni zobaczyć poniższy klip. Wyszedł spod ręki nie byle kogo, bo samego Andrzeja Dragana.
Dragan to świetny polski fizyk, fotograf, twórca filmów i pisarz, wyróżniający się zamiłowaniem do surrealistycznej stylistki. Możecie kojarzyć go między innymi z bestsellerowej książki Kwantechizm, czyli klatka na ludzi, która cieszy się fantastycznymi opiniami czytelników. To człowiek wielu talentów, co udowodnił podczas współpracy z polskim raperem. Andrzej Dragan przy produkcji klipu wykorzystał cały szereg narzędzi AI.
We wpisie na X zdradził, że wszystkie tła graficzne zostały wygenerowane przy pomocy Midjourney. Jeśli chodzi o ujęcia i przejścia, to zostały one opracowane dzięki Runway, Luma i Stable Diffusion. W klipie znalazło się też sporo widowiskowych deefake’ów – do ich stworzenia wykorzystano specjalnie trenowane GAN-y (Generative Adversarial Network), czyli rodzaj sztucznej sieci neuronowej.
Jeden laptop i jeden dzień roboty
Oglądając nowy klip Quebonafide można pomyśleć, że stworzenie tak skomplikowanego projektu wymaga mnóstwa czasu. Nic bardziej mylnego – dzięki AI ekipa odpowiedzialna za wideo mogła zamknąć się ze zdjęciami w jednym dniu. Najwięcej czasu zajęła postprodukcja – Dragan zdradził, że prace trwały od czerwca do października. Oczywiście nie wszystko jest dziełem AI, ale to właśnie dzięki sztucznej inteligencji można było zrealizować klip w jednym studiu, zamiast żmudnego szukania idealnych lokacji. W innym wpisie Andrzej Dragan przekazuje, że podobne zabiegi Disney stosował przy produkcji Mandaloriana, z tą różnicą, że zamiast Midjourney użyto silnika Unreal Engine.
Midjourney uratował nas od konieczności kręcenia w 10 lokacjach, na co nie było ani czasu, ani kasu. W efekcie z ekipy mógł wypaść location scout i mogliśmy zamknąć się w studio, zamiast wozić się z planem po Europie. – Andrzej Dragan
Najlepsze jest jednak to, że dzięki AI praktycznie wszystkie działania mogły zostać wykonane na laptopie – konkretniej MacBooku Pro z czipem M3 Max i 128 GB pamięci RAM. Trzeba pamiętać jednak, że sam fakt tak szerokiego zastosowania sztucznej inteligencji nie jest równoznaczny z prostotą samego procesu – nie powinniśmy patrzeć na to przez pryzmat leniwego wpisywania promptów i patrzenia, jak dzieło samo się tworzy. To wciąż bardzo skomplikowany proces, wymagający nie tylko ogromnej wiedzy, ale też wysublimowanego poczucia estetyki.