Geometria obrazu Wykład 13

Slides:



Advertisements
Podobne prezentacje
Grafika Wektorowa Bitmapowa.
Advertisements

Modele oświetlenia Punktowe źródła światła Inne
Informacji Geograficznej
Obrazy otrzymywane za pomocą zwierciadła wklęsłego
Krzysztof Skabek, Przemysław Kowalski
Podstawy grafiki komputerowej
Równonoc Sfera niebieska (firmament, sklepienie niebieskie) - abstrakcyjna sfera o nieokreślonym, lecz zwykle dużym promieniu otaczająca obserwatora.
Cyfrowy model powierzchni terenu
Grafika 3D.
Przekształcenia afiniczne
Grafika komputerowa Wykład 8 Wstęp do wizualizacji 3D
Autor: Aleksandra Magura-Witkowska
KINEMATYKA Kinematyka zajmuje się związkami między położeniem, prędkością i przyspieszeniem badanej cząstki – nie obchodzi nas, skąd bierze się przyspieszenie.
FIZYKA dla studentów POLIGRAFII Wykład 2
Rozpoznawanie obrazów
Animacja Animacja jest procesem automatycznego generowania serii obrazów, gdy kolejny obraz przedstawia pewną zmianę w stosunku do poprzedniego. Ta definicja.
Renderowanie oceanu Źródło: „Procedural Ocean Effects” László Szécsi Khashayar Arman Budapest University of Technology.
PODSTAWY ANIMACJI KOMPUTEROWEJ W ŚRODOWISKU FLASH
Geometria obrazu Wykład 15
Geometria obrazu Wykład 13
REKLAMY WYŻSZEJ UCZELNI Z WYKORZYSTANIEM ANIMACJI KOMPUTEROWEJ
Temat: Symulacje komputerowe lotu helikoptera w języku Java
Temat: Symulacje komputerowe lotu helikoptera w języku Java
Grafika wektorowa i bitmapa
Modele (graficznej reprezentacji) danych przestrzennych
Podstawy programowania
Podstawowe pojęcia i problemy związane z przetwarzaniem plików graficznych.
Kolorowanie czarno-białych zdjęć w przestrzeni barw CMYK
Komputerowe metody przetwarzania obrazów cyfrowych
Programowanie gier komputerowych Tomasz Martyn
Zaawansowane techniki renderingu
ZASTOSOWANIE RENDERINGU W GRAFICE KOMPUTEROWEJ
Systemy wspomagania decyzji
Homogenizacja Kulawik Krzysztof.
Grafika wektorowa.
Tytuł:Poradnik do programu PowerPoint?
Tworzenie komiksu MS PowerPoint Beata Sanakiewicz.
ZWIĄZKI MIĘDZY KLASAMI KLASY ABSTRAKCYJNE OGRANICZENIA INTERFEJSY SZABLONY safa Michał Telus.
Grafika komputerowa Jest to dziedzina rozwijająca się niezwykle dynamicznie, a jednocześnie wymagająca znacznej mocy obliczeniowej. Łatwo możemy to zaobserwować,
Spheroidator coded by Adam Piechna
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Algorytm Z-Bufora (bufora głębokości)
Aplikacje internetowe
Animacja na stronie internetowej
TECH – INFO technika, fizyka, informatyka
Aplikacje internetowe Grafika na stronach WWW ciąg dalszy Atrybuty znacznika body.
Grafika i komunikacja człowieka z komputerem
Informatyka +.
Grafika i komunikacja człowieka z komputerem
Grafika i komunikacja człowieka z komputerem
MECHANIKA 2 Wykład Nr 14 Teoria uderzenia.
Teksturowanie oraz algorytmy cieniowania
Metody animacji.
Składa się z wielu rysunków, które odtwarzane w odpowiedniej kolejności i z odpowiednią prędkością tworzą wrażenie ruchu.
Ruch – jedno w najczęściej obserwowanych zjawisk fizycznych
Grafika komputerowa.
GRAFIKA RASTROWA DALEJ. Podział grafiki komputerowej ze względu na sposób powstawania obrazu: GRAFIKA WEKTOROWA GRAFIKA KOMPUTEROWA GRAFIKA RASTROWA.
Draver/GRK/cw3_result.jpg. Grafika 3D Wprowadzenie.
Grafika 2d - Podstawy. Kontakt Daniel Sadowski FTP: draver/GRK - wyklady.
Rektyfikacja zdjęć Rektyfikacja zdjęć to przetwarzanie zdjęć do postaci kartometrycznej i przedstawienie w układzie współrzędnych terenowych. Rezultat.
MAPA NUMERYCZNA: METODY TWORZENIA MAPY NUMERYCZNEJ WIELKOSKALOWEJ K Jarosław Bosy.
Informatyka Zakres rozszerzony. GEOMETRIA - (gr. γεωμετρία; geo – ziemia, metria – miara) dział matematyki badający figury i zależności między nimi.gr.
Grafika komputerowa Dr inż. Michał Kruk. Reakcja ś wiat ł a z materi ą : – Odbicie ś wiat ł a – Przenikanie ś wiat ł a Zale ż ne od w ł a ś ciwo ś ci.
1.problem próbkowania (sampling problem) dobór charakterystycznych punktów powierzchni w celu uzyskania najlepszego efektu przy minimalizacji ilości danych.
Grafika wektorowa Konrad Janiszewski, kl. 2 . Co to jest? jeden z dwóch podstawowych rodzajów grafiki komputerowej, w której obraz opisany jest za pomocą.
Rzutowania Rzutowanie jest przekształceniem przestrzeni trójwymiarowej na przestrzeń dwuwymiarową. Rzutowanie polega na poprowadzeniu prostej przez dany.
 jeden z dwóch podstawowych rodzajów grafiki komputerowej, w której obraz opisany jest za pomocą figur geometrycznych lub brył geometrycznych, umiejscowionych.
Wiktoria Dobrowolska. Grafika komputerowa - dział informatyki zajmujący się wykorzystaniem komputerów do generowania obrazów oraz wizualizacją rzeczywistych.
SKANERY.
SKANERY.
Zapis prezentacji:

Geometria obrazu Wykład 13 Tekstury. Projekcje. Proces teksturowania. Mapowanie. Filtrowanie. Mozaikowanie. Deformacja. Przekształcanie. Wstawianie. Zlewanie. Maskowanie.

Siatka wielokątowa i cieniowanie pozwalają jedynie zobrazować kształt obiektu. Teksturą nazywa się charakterystyczne dla danego materiału powtarzalne wzory na powierzchni przedmiotów, jak np. słoje drewna. W grafice jest to pewien obraz, który nakłada się na wielokątową siatkę obiektu w celu przedstawienia szczegółów powierzchni obiektów przestrzennych . Tekstury niosą informacje o barwie powierzchni oraz innych parametrach generowanego obrazu związanych np. z modelem oświetlenia takich jak: współczynnik załamania światła , barwa światła odbitego, rozproszonego, stopień przezroczystości. Możemy wyróżnić dwa rodzaje tekstur: Tekstury bitmapowe – obrazy rastrowe rzutowane na dany obiekt. Tekstury proceduralne – obrazy, które są tworzone na podstawie określonych procedur matematycznych .

Istotna jest też możliwość animacji tych parametrów (np. kolorów). Tekstury proceduralne charakteryzuje duża dokładność, gdyż w przeciwieństwie do tekstur bitmapowych, parametry punktu są funkcjami współrzędnych rzeczy-wistych (dwu- lub trójwymiarowych) , a nie całkowitych. Istotna jest też możliwość animacji tych parametrów (np. kolorów). Przykłady tekstur proceduralnych: szachownica, mur, plaster miodu, marmur, drewno, spirale i inne twory geometryczne. [google]

W przypadku tekstury bitmapowej możemy wyróżnić trzy jej atrybuty: obraz, który będzie nakładany i jego kształt, powierzchnię, na którą nakładamy obraz, efekt widoczny na ekranie. Powstaje problem – co, skąd i jak rzutować ? [google]

Zazwyczaj obraz umieszczamy możliwie blisko powierzchni, na którą będzie rzutowany a następnie dobieramy możliwie najlepszy sposób rzutowania, który zapewni nam największy realizm rzutu. [google]

[http://wiki. ega. org. pl/index. php [http://wiki.ega.org.pl/index.php?title=Reprezentacja_tekstur_na_modelu] Przykłady. Projekcja sferyczna. Projekcja cylindryczna. Projekcja płaska.

Proces teksturowania. Przygotowanie tekstury. Mapowanie tekstury – zdefiniowanie odwzorowania obrazu na obiekt. Filtrowanie tekstury – poprawianie jakości tekstury. Renderowanie sceny. Mapowanie tekstury. Współrzędne tekstury są unormowane (ograniczone do przedziału [0, 1]). Dla każdego werteksa siatki znajdujemy odpowiednie współrzędne tekstury. Dla współrzędnych z przedziału (0, 1) – wycinamy fragment tekstury. Gdy współrzędne są większe od 1, to tekstura jest powielana.

MIP mapping. Jest to metoda polegająca na przechowywaniu kilku wersji (zwykle 8) tekstury o różnych rozdzielczościach. Obiekt trójwymiarowy pokrywamy teksturą, której rozdzielczość jest wystarczająca do reprezentowania tego obiektu obserwowanego z pewnej odległości. Im obiekt znajduje się dalej od obserwatora, tym mniejsza tekstura jest potrzebna. Skalowania tekstur można dokonać automatycznie, np. uśredniając sąsiednie piksele i filtrując zakłócenia. Oprócz zwiększenia prędkości teksturowania, otrzymujemy też obraz dobrej jakości. Niestety płacimy za to większym wykorzystaniem pamięci. [google]

UVW mapping. „Sztywne” przypisanie dwuwymiarowego obrazu powierzchni obiektu. W przypadku jakiejkolwiek jej modyfikacji konieczne jest ponowne rzutowanie obrazu. [http://wiki.ega.org.pl/index.php?title=Reprezentacja_tekstur_na_modelu]

Camera mapping. Szybka i łatwa technika do tworzenia pozornej wizualizacji 3D na podstawie pojedynczego zdjęcia. Tekstura rzutowana jest z pozycji kamery na obiekt, przy czym kamera jest związana z układem współrzędnych obiektu, na który rzuca teksturę. [google]

Mapowanie środowiska (environment mapping, reflection mapping) Mapowanie środowiska (environment mapping, reflection mapping). Metoda, która pozwalała na symulowanie odbić światła od powierzchni. Otoczenie obiektu rzutuje się na sferę. Następnie obraz ze sfery rzutuje się na obiekt. [http://www.dimmension3.spine.pl/download/pdf/Teoria%20-%20Mapowanie%20sferyczne.pdf]

Mapowanie nierówności (bump mapping) Mapowanie nierówności (bump mapping). Metoda, która symuluje niewielkie wypukłości powierzchni, bez ingerencji w geometrię obiektu trójwymiarowego. Technika polega na użyciu tekstury, która nie jest bezpośrednio wyświetlana, ale powoduje lokalne zakłócenia (zmianę kierunku) wektora normalnego (wraz z teksturą stosuje się tzw. mapę nierówności – opisującą zmiany tekseli (położenie, jasność) i wektorów normalnych). Rezultatem zakłóceń jest pojawienie się na obrazie złudzenia nierówności powierzchni z uwagi na zmienne natężenie padającego światła. Udoskonaleniem tej metody jest mapowanie normalnych. [wikipedia]

Mapowanie przemieszczeń (displacement mapping) Mapowanie przemieszczeń (displacement mapping). Metoda, która wykorzystując mapę przemieszczeń wywołuje efekt wyniesienia niektórych punktów ponad poziom tekstury (siatka trójkątów jest dzielona na mniejsze trójkąty i deformowana zgodnie z mapą – dopiero potem nakłada się teksturę).

Filtrowanie. Filtrowanie służy do poprawy jakości tekstur poprzez zacieranie granic pomiędzy sąsiednimi tekselami, co powoduje wygładzanie tekstury. W przypadku bezpośredniego przypisania koloru teksela (nearest-point sampling – co jest najprostszą i najszybszą metodą) mogą powstać artefakty (pojedyncze piksele będą odcinać się od reszty). [google]

Filtrowanie dwuliniowe polega na nadaniu tekselowi uśrednionej wartości czterech sąsiednich tekseli (względem osi). Filtrowanie trójliniowe jest rozszerzeniem filtrowania dwuliniowego. Pozwala na redukcję niekorzystnych skutków aliasingu, gdy obiekt znajduje się daleko od obserwatora. Polega ono na uśrednieniu wartości tekseli sasiednich punktów na dwóch poziomach szczegółowości mipmapy. [google]

Filtrowanie anizotropowe udoskonala filtrowanie trójliniowe i polega na uwzględnieniu w filtrowaniu tekstury kierunku obserwacji - powinno być ono intensywniejsze "w głąb ekranu". Dla różnych kierunków stosuje się różne wagi i mapy. Pociąga to za sobą wzrost złożoności czasowej i pamięciowej. [google]

Skybox. Metoda stosowana w grach komputerowych w celu stworzenia realistycznego obrazu nieba i krajobrazu. Kamerę umieszcza się w środku sześcianu, którego ściany pokrywa się teksturą. Przy każdym ruchu kamery przemieszcza się go tak, aby kamera była zawsze w środku. Obecnie częściej stosuje się sferę lub kopułę (skydome), np. do obrazowania kosmosu. [google]

Mozaikowanie obrazów cyfrowych polega na przetworzeniu zbioru kilku lub kilkudziesięciu cyfrowych obrazów składowych, w wyniku którego utworzony zostanie jeden obraz. Oprócz tworzenia panoramicznych obrazów, mozaikowanie jest bardzo przydatne np. w geografii do tworzenia lotniczych obrazów powierzchni Ziemi lub do konstrukcji sonarowych modeli dna zbiorników wodnych. Wbrew pozorom nie jest to proste zadanie, gdyż oprócz błędów wynikających z niedoskonałości przyrządów, pojawia się problem określenia położenia sprzętu i jego ukierunkowania.

Przykłady. [google]

Przykład. http://www.lazienki-krolewskie.pl/trail.html

Deformowanie (warping) obiektu, to zmiana jego kształtu oraz atrybutów takich jak barwa, tekstura, właściwości odbijania światła itp.. Deformowany może być obiekt sceny lub jego obraz. Do deformacji może zostać użyta dowolna funkcja określona na danym obrazie. Jeśli funkcja jest różnowartościowa, to istnieje możliwość odtworzenia obrazu pierwotnego. Zazwyczaj funkcja ta jest określona na węzłach siatki obiektu lub obrazu. Deformacji możemy dokonać w dwóch kierunkach (gdy funkcja przekształcenia jest bijekcją): możemy deformować obraz oryginalny, z obrazu zdeformowanego możemy próbować odzyskać obraz oryginalny. Warping możemy zastosować np. do zmian wyglądu twarzy (np. układ warg) lub korekty kształtu ciała (nie zawsze skuteczne, bo mogą pojawić się niepożądane elementy).

Przykłady. [google] [sound.eti.pg.gda.pl/student/.../metody_animacji/metody_animacji.ppt]

Przekształcanie (morphing), to technika przekształcania obrazu polegająca na płynnej zmianie jednego obrazu w inny. Zazwyczaj w tym celu wykorzystuje się punkty kontrolne określające elementy obrazu, które chcemy dopasować (np. oczy, usta, podbródek, uszy lub elementy fasady domu). Następnie trianguluje się obraz (oczywiście triangulacją Delaunay) oraz interpoluje stany pośrednie. W każdym kroku interpolowane są oba obrazy (początkowy i końcowy) a wynik jest uśredniany z odpowiednimi wagami. Przy przekształcaniu wskazane jest, aby: między parą obrazów istniał związek logiczny, tzn. nie powinny być to dwa dowolne obrazy, dla których fazy pośrednie byłyby trudną do identyfikacji mieszaniną barw (chyba, że tak chciał autor), liczba obrazów pośrednich powinna umożliwiać płynną animację.

Przykład. http://www.mukimuki.fr/flashblog/2009/05/10/morphing/

Jeszcze jeden przykład. http://grail. cs. washington Jeszcze jeden przykład. http://grail.cs.washington.edu/projects/regenmorph/ A swoją drogą nie ma co się za bardzo trudzić, bo jest wiele programów, które zrobią to za nas – np. WinMorphto, Photoshop.

Wstawianie (tweening), to proces łagodnego przejścia od jednego obrazu do drugiego przez automatyczne wprowadzanie (interpolację) dodatkowych ramek pomiędzy nimi. Wstawianie jest częścią morphingu. Należy zwrócić uwagę na możliwość zmiany kolejności punktów kontrolnych, co może doprowadzić do zaburzenia triangulacji. Trzeba utrzymywać aktualną triangulację Delaunay wykorzystując w tym celu zmianę kierunku krawędzi, gdy staje się ona nielegalna.

Zlewanie (dissolwing), to płynne łączenie dwóch obrazów Zlewanie (dissolwing), to płynne łączenie dwóch obrazów. Zlewanie ma sens, gdy obrazy są podobne (np. zmiana krajobrazu podczas zmieniających się pór roku). Oczywiście można też uśrednić dowolne dwa obrazy pixel po pixelu. [google]

Maskowanie, to sposób animacji mający na celu stworzenie efektu światła punktowego (reflektorowego – doświetlenie określonego obszaru sceny). Polega ono na tym, że pewien obszar sceny (np. w kształcie koła) jest oświetlony a pozostała część jest zaciemniona lub niewidoczna. Obszar ten tworzy maskę, której położenie może być zmieniane. Nazwa ma związek z wycinanymi w kartonie kształtami służącymi do doświetlania określonych fragmentów fotografii. [google]

Dziękuję za uwagę.