Okiełznać trzeci wymiar. Część 1.

okulary3dTegoroczną  jesień i zimę śmiało można nazwać sezonem domowego wideo 3D. W marketach można już kupić telewizory 3D, pojawiają się  też pierwsze kamery 3D: czy to zabawki w postaci webcamów (np. Minoru), Fuji W3 czy już zdecydowanie droższy sprzęt, jak choćby Panasonic HDC-SDT750. Niezależnie od tego, wiele osób tworzy od dawna stereoskopowe filmy wideo korzystając z dwóch sprzężonych z sobą kamer. W ślad za tym nastąpi oczywiście wysyp przeróżnego oprogramowania, takiego „idiotoodpornego”, jak i „pro”.

Wbrew pozorom na rynku od dawna jest sporo oprogramowania umożliwiającego tworzenie filmów 3D. Opis przygotowałem dla Sony Vegas 9 Pro, bo akurat takiego używam, pamiętajcie jednak, że opisane tu metody można po małej adaptacji zastosować praktycznie w każdym, w miarę nowym programie do edycji wideo.  Istnieją też oczywiście programy od początku przeznaczone do zabaw w trzeci wymiar, jak choćby darmowy StereoMovie Maker (który zresztą może nam się przydać i tak, więc warto go zainstalować).  Istnieją też wtyczki (plug-ins) do programów, upraszczające pracę no i nowy Vegas 10 Pro, wyposażony "firmowo" w szereg udogodnień związanych z obróbką materiałów stereoskopowych.

W tym artykule pokażę Wam, jak obrabiać film 3D używając Sony Vegas 9 Pro bez jakichkolwiek dodatków, potem zrobimy to samo z pomocą bardzo ciekawej wtyczki Bororo 3D. Oczywiście ktoś zapyta, po co się męczyć, skoro jest wtyczka, o nowym Vegasie nie wspominając. Po pierwsze,  zgodnie z edukacyjną tradycją i misją mojej witryny - dla wiedzy. Po drugie, znajomość tej metody pozwala nam na dużo większą elastyczność, własne eksperymenty oraz zastosowanie opisanych metod do niemal każdego współczesnego programu NLE i formatu 3D. Uprzedzam też, że tekst raczej nie jest przeznaczony dla początkujących użytkowników, zarówno Vegasa jak i ogólnie zupełnie „zielonych” w tematyce wideo i jego obróbki.

 

Materiał wejściowy

Jak wiadomo, żeby coś wyjąć, trzeba najpierw włożyć, czyli najpierw musimy odpowiednio nakręcić nasz film. Na rynku konsumenckim za bardzo nie ma w czym wybierać, póki co (jesień 2010) jest tylko Panasonic HDC-SDT750, aparat Fuji W3, ewentualnie jakieś przystawki. W sumie ten Panasonic  to też kamera z odpowiednia przystawką. Pojawiły się też przystawki zapisujące obrazy w półpolach, wykorzystujące właściwości obrazu interpolowanego, takie jak NuView czy StereoCam. Są też zabawki w stylu webcamów 3D, przystawek do telefonów komórkowych itd. Ciekawostką i to w cenie będącej w zasięgu zwykłego śmiertelnika jest kompaktowy aparat FinePix REAL 3D W3, rejestrujący także filmy 3D.b

Czy to znaczy, że do tej pory nie można było robić filmów 3D – albo poprawniej – stereoskopowych? Jasne, że można było. Filmowcy używali do tego po prostu dwóch kamer wideo zamocowanych obok siebie, albo – gdy rozmiary kamery czy obiektywów na to nie pozwały, wykorzystywano kamerę obróconą o kąt 90 stopni plus odpowiednie lustro półprzepuszczalne. Sporo takich projektów znajdziecie w Internecie.

Nie będę się rozwodził nad samą realizacją filmu 3D, więc tylko krótko o wadach i zaletach poszczególnych rozwiązań:

a) dwie sprzężone kamery

  • zalety: możliwość bardzo precyzyjnego  ustawienia kamer (zjawisko konwergencji!), w tym , pełna rozdzielczość  i jakość każdego „oka”,
  • wady: konieczność posiadania dwóch kamer, problemy z ich synchronizacją, dwa razy więcej materiału do składowania i obróbki, nieporęczna konstrukcja

Warto dodać, podobnie pracują profesjonalne kamery 3D – czyli są dwa obiektywy, dwa przetworniki, dwa urządzenia rejestrujące itd. tyle, że wszystko zamknięte w jednej obudowie. Tak pracuje np. "troszkę" droższy brat wspomnianego Panasonica, czyli AG-3DA1, czy kamera Sony HFR Comfort-3D. Ta ostatnia o tyle ciekawa, że ma jeden (!) obiektyw, a mimo to jest 3D.

Nie będą się jakoś specjalnie rozpisywał na temat samego kręcenia filmów 3D i samej stereoskopii, jest sporo serwisów na ten temat, ale przy okazji dodam tylko trzy‘tipsy’ dla tych, co próbują tego sportu i kręcą dwoma kamerami:

  • Do synchronizacji kamer używajcie jakiegoś ostrego nagłego dźwięku a nie lampy błyskowej jak to robią niektórzy – można to wtedy zrobić dokładniej.
  • Wyłączcie w kamerach wszelką automatykę
  • Do sterowania kamerami używajcie pilota – to zwiększy prawdopodobieństwo synchronizacji obu kamer i ogólnie sterowanie nimi.

Zaprzyjaźnijcie się z tablicami (rozetami) do ustawiania ostrości. Warto do kamery podłączyć jakiś zewnętrzny podgląd, choćby laptopa (np. z Efixmo Cool ) a nie bazować na LCD z kamery.

PS Do tej klasy należało by zaliczyć też wspomniany kompakt Fuji - on także zapisuje dwa niezależne strumienie wideo (aczkolwiek na jednej karcie w jednym pliku mjpg).

b) nasadka stereoskopowa, przez którą na jednej klatce rejestrowane są dwa obrazy

  • zalety:  pojedynczy film a co za tym idzie prosta obróbka, brak problemów z synchronizacją, korekcją kolorów itp. taki film można od ręki wrzucić na YouTube 3D.
  • wady: czasem (w zależności od klasy sprzetu) brak możliwości regulacji rozstawu osi optycznych, a co za tym idzie wpływu na głębię obrazu, wielkość i ciężar nasadki (ale i tak lepiej niż dwie kamery) oraz najważniejsze – utrata jakości. Obrazy są zwykle „ściskane” (jak przy nasadce anamorficznej) i umieszczane obok siebie. Potem taki obraz jest rozciągany do właściwych proporcji, jednakże traci na jakości –  1920 pikseli pełnego HD otrzymujemy z rozciągniętego obrazka zapisanego jako 960 pikseli. Czy to akceptowalna strata jakości? To zależy. Do domowego archiwum czemu nie, tym bardziej do YouTube, gdzie właśnie ten format jest podstawą. Myślę, że pod tym kątem będą tworzone wszystkie kamery klasy domowej. Prawda jest też taka, że sporej części użytkowników nie będzie to wcale przeszkadzać, podobnie jak nie przeszkadza im jakość obrazu rejestrowanego tanimi kamerkami HD za nie całe tysiąc złotych.

c) nasadka zapisująca w półpolach

  • zalety: podobnie jak poprzednio pojedynczy film, możliwość pewne regulacji głębi itd.
  • wady:  nasadka dosyć niezgrabna, niesymetryczna, wiele osób narzeka na trudności w zmuszeniu jej do pracy z niektórymi kamerami. W związku z tym, że nasadka zapisuje obraz w półpolach, tracimy praktycznie połowę pionowej rozdzielczości, co rzuca się w oczy bardziej niż w przypadku rozdzielczości poziomej. Ogólnie przystawki te raczej nie cieszą się popularności i znikają powoli z rynku.

Oczywiście kamera to nie jedyne urządzenie które potrafi "produkować" obrazy 3D. Możemy przykładowo otrzymać materiał  z programów typu 3D MAX, Maya, Blender i innych "do grafiki 3D" - w tym wypadku zwykle będą do sekwencje bitmap, dla lewego i prawego oka. Kolejnym typem to filmy rejestrowane przez graczy (gameplay) za pomocą programu FRAPS - taki materiał dostaniemy jako side-by-side (co to jest patrz niżej).

Możemy więc z dużą dozą prawdopodobieństwa przyjąć, że w nasze ręce trafia tylko dwa rodzaje obrazka – albo dwa osobne filmy, dla lewego i prawego oka, albo film z dwoma obrazami na jednej klatce, w różnych kombinacjach. Jeżeli nie jesteśmy autorami zdjęć, może trafić się nam inny film w innym formacie, z czego chyba najgorsze co można dostać, to gotowy obraz anaglifowy. Owszem, da się rozseparować z powrotem takie obrazy by coś z nich zrobić, ale ogólnie skórka nie jest tu warta wyprawki. A teraz bardziej obrazowo parę przykładów tego, co może do trafić na nasz stół montażowy:

Dwa osobne filmy, lewe/prawe oko

lokopoko

 

Stereopara (side-by-side full) z obrazem we właściwych proporcjach lub z obrazem anamorficznym (side-by-side half)

side-by-side-normalnyside-by-side-anamorficzny

 

Stereopara w której obrazy umieszczone są nad sobą (over-under full), w proporcjach normalnych lub ściśnięte (over-under half)

over-under-pelnyover-under-anamorficzny

 

Obrazy "przeplatane" – jeden obraz jest w liniach parzystych, drugi w nieparzystych (row-interlaced) albo też kolumnach (column-interlaced). 

obraz-row-interlacedobraz-column-interlaced

Trafiają się też obrazy przelatane, gdzie obraz przedstawiony jest w formie szachownicy (checkerboard), wykorzystywane w systemach opartych na DLP (np. Mitsubishi). "Na żywo" nigdy nie spotkałem takiego materiału.

Ten pobieżny przegląd nie wyczerpuje wszystkich technik, w przepastnych zasobach Internetu znajdziecie o wiele więcej.


Co na wyjściu?

OK. Mamy film, będziemy go za chwile obrabiać. Zastanówmy się teraz, do jakiej postaci? Czy będziemy go oglądać na swoim telewizorze? Czy prześlemy na YouTube? Czy będzie to materiał do jakiegoś specjalnego typu projektora, a może nawet do prawdziwego kina cyfrowego?

Uproszczę Wam wybór – obojętnie, co będziecie później robić ze swoim dziełem, zawsze renderujemy do dwóch osobnych filmów, po jednym dla każdego oka. Powinniśmy (jak zawsze zresztą) użyć jakiegoś dobrego, mało stratnego kodeka, najlepiej oczywiście bezstratnego. Profesjonaliści  idą jeszcze dalej i zapisują taki film jako sekwencję bitmap – np. w formacie Tiff lub PNG. Taki materiał archiwizujemy w bezpiecznym miejscu.

Gdy to już wykonamy, możemy rozpocząć eksperymenty i wybrać nasz docelowy, "użytkowy" format – osobiście sugeruję format side-by-side half czyli ze ściśniętym obrazem. Taki format przyjmuje m.in. YouTube3D oraz telewizory 3D (aczkolwiek tu trzeba sprawdzić, co obsługuje nasz model). Bez problemu odtworzymy też taki film korzystając np. z programu SteroPlayer. Mimo utraty połowy poziomej rozdzielczości, jakość jest całkiem akceptowalna, a plik „waży” tyle, ile zwykły film 2D.
Oczywiście padnie pytanie – a dlaczego nie najbardziej popularny anaglif?  Powody są dwa:

  • Stereoscopic Player czy YouTube3D doskonale radzą sobie z obrazem side-by-side i w razie potrzeby „w locie” przerobią go na anaglif odpowiedni do posiadanych przez Was okularów.
  • Właśnie – okulary! Przebój Allegro i „taniego trójwymiaru”, czyli czerwono-niebieskie, czerwono-zielone itd., w zależności od wybranego systemu. Problem w tym, że monitory, telewizory i projektory różnie wyświetlają kolory, niekoniecznie zgodnie z naszymi okularami. Na prawdę trudno trafić w odcień i uzyskać dobry efekt 3D pozbawiony „duchów”.

Nie wyrzucajmy ich jednak, okulary anaglifowe mogą być mimo to przydatne, o czym za chwilę.

 

Obróbka 3D w Vegas Pro 9 bez dodatków

Sony Vegas 9 Pro, w odróżnieniu od wersji 10 Pro, nie jest wprost przystosowany do obróbki materiału 3D, szczególnie jeśli chodzi o prezentacje trójwymiarowego obrazu. Nie oznacza to jednak, że nic z tym się nie da zrobić.  O ile sam montaż o wiele wygodniej (i zdrowiej dla oczu...) jest robić w trybie 2D, to w pewnym momencie trzeba by było jednak popracować nad głębią obrazu. Najtańszym i najprostszym sposobem ogarnięcia tego w warunkach domowych (i to dosłownie za parę złotych), to zmuszenie Vegasa do wyświetlania anaglifowego obrazu w oknie Preview. I w tym momencie wyciągamy z kosza nasze czerwono-niebieskie okulary.

Zajmiemy się obydwoma przypadkami, najpierw trudniejszym do ogarnięcia, czyli dwoma osobnymi filmami, a następnie filmem zarejestrowanym w postaci dwóch obrazów obok siebie (side-by-side) albo jeden nad drugim (top-bottom).

1) Filmy pochodzące z dwóch niezależnych kamer

Pierwsza rzecz, to synchronizacja zdjęć z obu kamer. Wiadomo – oba nagrania nie powinny być przesunięte względem siebie w czasie. Problem w tym, że nawet używając pilota niemal niemożliwym jest, by obie kamery „zaskoczyły” równocześnie. Dlaczego? Każde urządzenia ma swój wewnętrzny zegar, który jakoś tam po swojemu „tyka” i wg tych taktów steruje wszystkimi procesami. Np. w danym takcie kamera zaczyna rejestrować obraz na przetworniku. 
Jest wielce nieprawdopodobne, by zegary w obu kamerach „tykały” identycznie. Efekt tego jest taki, że np. pierwsza kamera zaczyna rejestrować obraz w czasie, gdy druga jest już w połowie.  W kamerach profesjonalnych występuje złącze o nazwie genlock – dzięki niemu można zsynchronizować generatory czasu we wszystkich urządzeniach i pracują one synchronicznie. My tego raczej nie będziemy mieli do dyspozycji, będziemy musieli poradzić sobie synchronizacją „na oko”, do zastosowań amatorskich zupełnie wystarczy.

Zakładam, że podczas filmowania zapiszczeliście czymś, klasnęliście w dłonie czy błysnęliście lampą błyskową. Zastosowanie takiego impulsu znacznie ułatwi Wam synchronizację takich filmów. Ta technika (synchronizacja "na ucho") przydaje się zresztą i w innych przypadkach, w którym musimy jak najdokładniej dopasować w czasie materiał z paru kamer (przydatne np. przy produkcji wideoklipów).

a) Otwieramy nowy projekt

b) Tworzymy dwie nowe ścieżki wideo, OD RAZU nazywamy je „lewe oko” i „prawe oko”, po czym wrzucamy na nie wideo, odpowiednio dla lewego oraz prawego oka.

c) ustawiamy ścieżki audio jedna pod druga i robimy duuuuuże powiększenie (tak, by było widać pojedyncze klatki)

d) patrzymy, czy mamy włączoną opcję „Quantize to Frames” (Alt+F8) i patrząc na kształt fali dźwiękowej staramy się  dopasować do siebie położenie dwóch filmów tak dokładnie, jak to możliwe. Jeżeli zamiast markera użyliśmy lampy błyskowe, to robimy to samo, patrząc oczywiście na obraz. Praktycznie nigdy nie uda nam się zrobić tego tak idealnie, jak na poniższym obrazku, ale starajmy się, by wypadło to w tej samej klatce filmu.

dzwiek-synchro-zle dzwiek-synchro-ok

e) po dopasowaniu ścieżek (można odsłuchać, nie powinno powinien się tworzyć pogłos), usuwamy jedną (lub obie jak nam niepotrzebne) ścieżki audio, przycinamy z przodu i z tyłu, by obie ścieżki miały identyczną długość zaznaczamy i dla wygody tymczasowo grupujemy (klawisz G).
Jeśli wszystko poszło dobrze, mamy teraz wstępny materiał do dalszej pracy. Oczywiście możemy przygotować w ten sposób wiele klipów (eventów).

 

2) Metoda dla filmu zarejestrowanego systemem side-by-side

W tej metodzie użyjemy pojedynczego plik wideo, z obrazami dla prawego i lewego oka na tej samej klatce. W większości przypadków będą to też obrazy „ściśnięte” (anamorficzne). Przed dalszą obróbką trzeba im więc przywrócić właściwą formę .

Uwaga: jeśli jedyne co chcesz dalej z tym zrobić, to publikacja na YouTube albo oglądanie na telewizorze 3D, to nic nie musisz robić. Podobnie w przypadku drobnej korekcji typu Levels, Brightness itp., o ile nie przeszkadza Ci podwójny obrazek w oknie podglądu. Po prostu wyrenderuj to identycznie z materiałem wejściowym i tyle. Kiedy jednak chcecie zrobić coś więcej, wypadałoby przywrócić oryginalny wygląd obrazu.

Załóżmy, że mamy do dyspozycji film w rozdzielczości 1920x1080 a na nim dwa anamorficzne obrazy o rozdzielczości 960x1080 pikseli (side-by-side half ) co wygląda tak:

side-by-side-anamorficzny


Z takiego obrazka musimy teraz wydzielić osobne kanały dla lewego i prawego oka i następnie rozciągnąć do właściwego rozmiaru pełnej klatki. Na koniec utworzymy anaglif w oknie Preview, który oczywiście też możemy wyrenderować:

anaglif-vegas

 


Zaczynamy pracę:

a) tworzymy nowy projekt a następnie dwie ścieżki wideo, i podobnie jak ostatnio od razu nazywamy je odpowiednio „prawe oko” i „lewe oko” – lenistwo potem się może na nas srogo zemścić. Wiem, powtarzam się, ale uwierzcie mi, dokładne opisywanie, etykietowanie materiału bardzo pomaga w pracy.

b) umieszczamy nasz film na obu ścieżkach, tak, by początek i koniec wypadały w tych samych miejscach

c) klikamy Pan/Crop na filmie dla lewego oka (uwaga: podany  przykład zakłada, że obraz z lewego obiektywu będzie zapisany akurat po lewej stronie kadru, ale wcale nie musi tak być, zależy to od widzimisię producenta kamery), a następnie:

- WYŁĄCZAMY Lock Aspect Ratio

- w Position ustawiamy kolejno:

* Widh=960

* Height=1080

* X Center =480

* Y Center=540

* w pozycji „Source” ustawiamy Maintain Aspect Ratio na No

Jeżeli wszystko zrobiliśmy poprawnie, powinniśmy zobaczyć w oknie podglądu lewą połową filmu rozciągniętą do właściwych rozmiarów i zajmująca całą powierzchnię kadru. Dla prawego oka postępujemy analogicznie, oczywiście X Center ustawiamy wtedy na 1440.

Identyczną metodę zastosujemy dla filmu z obrazami top-bottom, oczywiście obraz rozciągamy wtedy w pionie.

 

3) Tworzymy anaglif

Niezależnie od materiału wejściowego, po tych operacjach na dwóch ścieżkach powinniśmy otrzymać dwa kawałki filmu o pełnej klatce i własciwych proporcjach, osobno dla każdego oka. W oknie Preview widoczna będzie wyżej położona ścieżka, w tym wypadku dla lewego oka. Teraz wypadało by coś zrobić, by zobaczyć nasze dzieło w trzech wymiarach.

Jak wspominałem wcześniej, najprostszym i najtańszym rozwiązaniem jest utworzenie obrazu anaglifowego. Ta technika jest stara (wynalazek z roku 1853) i pozostawia wiele do życzenia (zwłaszcza jeśli idzie o kolory) ale nie wymaga specjalnych monitorów i okularów za parę set złotych. Wystarczą tekturowe czerwono-niebieskie (Red-Cyan) okulary za 5 zł, albo lepszej klasy, akrylowe.  Można je dostać na aukcjach, czasem dodawane są do gazet czy niektórych filmów na DVD. Po to, by "podregulować głębię, w zupełności starczy. No to do roboty:

a) Nad każdą ze ścieżek lewego i prawego dodajmy po jednej nowej ścieżce i zgodnie ze zwyczajem od razu nazywamy je przykładowo „anaglif lewy” i „anaglif prawy”. Powinno to potem mieć następującą kolejność ścieżek:

  • Anaglif lewy
  • Lewe oko
  • Anaglif prawy
  • Prawe oko

b) Klikamy na ścieżkę „Lewe oko” i używając przycisku Make Compositing Child „podpinamy” ją do ścieżki Anaglif lewy. Identycznie postępujący ze ścieżką „Prawe oko” łącząc ją ze ścieżką „Anaglif prawy”.

c) Wracamy do ścieżki „Anaglif lewy” i używając ikonki Parent Composite Mode zmieniamy tryb mieszania na Add (dodaj). Jeśli całość wykonaliśmy poprawnie, powinno to wyglądać tak:

uklad-sciezek-anaglif

a w oknie podglądu zobaczymy dwa, nałożone na siebie i przesunięte obrazy:

suma-obrazow

Brakuje nam jeszcze właściwego rozbarwienia.

 


Aby uzyskać obraz anaglifowy użyjemy efektu Sony Channel Blend.

a) Wybieramy ścieżkę "Anaglif lewy" a następnie klikamy w ikonkę Track FX

b) Tworzymy i oczywiście zapisujemy sobie na przyszłość preset dla lewego oka o następujących parametrach:

channel-blend-lewy

c) To samo powtarzymy dla ścieżki "Anaglif prawy" zmieniając jednak odrobinę ustawienia:

channel-blend-prawy

Jeśli wszystko dobrze poszło, powinniśmy ostatecznie otrzymać błękitno-czerwony anaglif. Tada!

Czy to już koniec? Najczęściej niestety nie.

 


Dostrajanie

Przy pewnej dozie szczęścia nie musimy robić nic i od razu cieszyć się ruchomym, trójwymiarowym obrazem. Zwykle jednak musimy troszkę popracować nad wyrównaniem obrazu z kamery, być może skorygować zbyt szeroką bazę stereo ale odwrotnie, rozsunąć bardziej obrazy by sztucznie zwiększyć efekt głębi.

W tym ostatnim przypadku zalecam szczególną ostrożność, ponieważ niezależnie od sposobu wyświetlania zbytnie rozsunięcie obrazów bazowych spowoduje dramatyczny spadek jakości obrazu i utratę efektu 3D. Sony w swoich materiałach zaleca, by niezależnie od wielkości ekranu na którym oglądamy filmy 3D to rozsunięcie nie przekraczało 2,5 cala przy standardowej odległości oglądania. W telewizorach 3D które oglądałem można było skorygować ten parametr w razie potrzeby.

Jak sobie poradzić w takich wypadkach? Lekarstwem jest niestety żmudna praca przy użyciu „Pan/Crop”. Musimy skorygować położenie obrazu i zwykle lekko go powiększyć, jeśli po bokach powstały dziury.

Jeżeli już to zrobiliśmy, pozostaje nam

Rendering

W tej chwili jesteśmy na etapie anaglifu, w takiej też formie możemy od razu wyrenderować nasz film, tak jak każdy inny film 2D. Czasem się to przydaje (np. chcemy pokazać rodzinie film na zwykłym TV), jednak odradzam tę metodę.  Choćby dlatego, że ktoś może mieć akurat okulary Colorcode czy innego systemu i sobie tego nie poogląda, trudno jest też tak na prawde na 100% trafić w kolory filtrów i efekt bywa kiepski.
Proponuję dwa wyjścia:

1) Dwa osobne filmy:

- wyłączamy filtry Channel blend w ścieżkach „Anaglif lewy” i „Anaglif prawy”

- włączamy tryb Play solo i renderujemy osobno obraz dla lewego i prawego oka. Ta metoda jest szczególnie przydatna, gdy chcemy przekazać komuś materiał do dalszej obróbki, na przykład do mastering Blu-ray 3D.

2) Tworzymy ponownie obraz w trybie side-by-side half

- wyłączamy jak poprzednio Channel blend

- używamy tym razem Track motion i tak zmieniamy szerokość obrazów (ściskamy je o 50% z wyłączoną opcją Lock Aspect Ratio), a następnie rozmieszczamy tak, by każdy z nich zajmował swoją połową ekranu. Ostatecznie musimy powrócić do czegoś takiego:

side-by-side-anamorficzny

Jest z tym trochę zabawy, to fakt. Ostatecznie renderujemy to do wybranego przez siebie formatu i w takiej formie możemy wysłać nasz film np. na YouTube czy obejrzeć na niektórych telewizorach 3D.

(Uwaga, jeśli chcesz obejrzeć to w 3D, wejdż na strone YouTube.

 


Bororo3D

Skoro już mniej więcej wiemy, jak to wszystko działa, spróbujemy ułatwić sobie troszkę pracę. W tym celu zainstalujemy bardzo przydatny plugin do Sony Vegas wspomagający edycję 3D, czyli Bororo3D. Dodatek ten jest dostępny bezpłatnie na stronie autora pod adresem http://www.pantarheon.org/Bororo3D/

Zakładam, że zainstalowaliście już tę wtyczkę. Praca będzie przebiegać podobnie jak poprzednio, jednakże Bororo3D odciąży nas od paru, nie ukrywajmy – uciążliwych czynności. Do dzieła!

1) Bororo3D bazuje na kompozycji ścieżek i wymaga dwóch osobnych filmów (dla lewego prawego oka), położonych jeden pod drugim. Tak jak w poprzednim przykładzie tworzymy  dwie ścieżki wideo i tradycyjnie nazywamy je „prawe oko” i „lewe oko”.
Jeśli dostaliśmy materiał side-by-side musimy spreparować tak samo, jak w przykładzie na początku tego artykułu. Ścieżka dla lewego oka znajduję się wyżej.

2) Na ścieżki wrzucamy nasze pliki wideo i synchronizujemy. Następnie na górnej ścieżce („Lewe oko”) z dostępnych trybów kompozycji wybieram Custom. Wśród dostępnych tam elementów znajdziemy Bororo 3D Composite. Wybieramy go oczywiście i w tym momencie zobaczymy takie okienko:

 

bororo3dcomposite

 

Wybieramy taki odpowiadający nam tryb i od tej chwili obraz w oknie Preview wyświetlany jest wybraną metodą. Możemy w każdej chwili to zmienić, np. pracować cały czas z anaglifem, a do ostatecznego renderingu przełączyć na side-by-side. Epizody (eventy) oczywiście warto zgrupować.

W zasadzie tutaj można by już zakończyć pracę i wyrenderować finalne wideo, ale to nie koniec możliwości Bororo. W zakładce VideoFX znajdziemy cztery pozycje, z których najciekawszą wydaje się Bororo 3D Horizontal Adjustment. Dodając ten efekt np. do warstwy z tekstem (lub dowolnym innym elementem) możemy uzyskać efekt zmiany jego położenia w przestrzeni 3D i wykonać przykładowo tytuł „wychodzący” przed ekranem. Bardzo ciekawe efekty przejścia 3D daje Bororo 3D Iris, które znajdziemy w zakładce Transitions. Zachęcam do zapoznania się z informacjami na stronie autora i oczywiście eksperymentów.

Bororo to nie jedyny dodatek do Sony Vegas ułatwiający pracę z filmem stereoskopowym a ten tekst nie omawia wszystkich niuansów i technik z tym związanych, ma być raczej inspiracją i bazą do dalszych poszukiwań. Miał pokazać, że przy pewnej dozie samozaparcie zdołamy obrobić i przedstawić naszym widzom własną wersję „Avatara” przy niewielkich nakładach i bez przejmowania się prasowymi tekstami wmawiającymi nam, że 3D w filmie to rewelacja, rewolucja i w ogóle kosmiczna technologia, ogólnie super nowość i powiew XXII wieku.

Oczywiście w tym momencie spłyciłem temat, ale nie dajmy się zwariować. Czy to oznacza, że temat jest banalny? Ależ skąd, począwszy od wykonania zdjęć po dystrybucję, na każdym czyhają na nas pułapki. Choćby w przedstawionych metodach – pamiętajmy na przykład – każdy przejście, każdy efekt, każdą zmianę kadrowania, korekcję kolorystyczną musimy robić podwójnie! I pamiętać o tym!

Wymaga to na prawdę dużej dyscypliny pracy i samozaparcia. Ale – nie martwcie się, nie jest aż tak źle!

W części drugiej dowiecie się, ile przyjemności daje i jak wygląda prawdziwie komfortowa praca z materiałem 3D, czyli zapoznamy się nowym dzieckiem Sony Creative Software, czyli Sony Vegas 10 Pro.  
I stała się przestrzeń, i cieszyli się ludzie mogąc wrócić do kreacji, miast walczyć z machiną... Cool

vegas10pro3dtest

 

Koniec części 1