Witam Panowie ostatni wszyscy zrobili się strasznie PRO, w używaniu określeń/słów które nie przez wszystkich są jasno rozumiane, mam tu na myśli wszystkie te określenia typu:
-Ambient acclusion
-Global illumination
-God's ray
etc
Czy mógł by ktoś w tym temacie wszystko fajnie opisać? Tak, żeby każdy mógł tu zajrzeć i poszerzyć swoją wiedzę.
Ja niestety tego nie zrobi bo zwyczajnie moja wiedza nie jest na ten temat tak ogromna jak co nie których osób na tym forum, taki temat można by przykleić, myślę, że spełni swoje zadania i nie jednemu pomoże.
Póki co mamy:
-Ambient acclusionAmbient Occlusion jest to algorytm symulujacy cienie kontaktowe, w pewnym stopniu zastepujacy global illumination podczas styku dwoch geometrii, technik tego typu jest wiele od w 100% dokladnej jak w przypadku LBP 2, do aproksymowej w stosunku do widoku gracza [screen space], moga wystapic tez zaawansowane algorytmy tego typu jak obecny w patchu DX 11 Crysis'a 2 screen space direction occlusion, ktora uwzglednia kolor powierzchni generujacej cien.
-Global illuminationJest to rodzaj renderowania oswietlenia polegajacy na tym, iz kazda powierzchnia odbija swiatlo i oswietla w ten sposob powierzchnie wokol niej. Normalnie w grze jesli masz dynamiczne oswietlenie to np masz swiatlo sloneczne lub lampy w pomieszczeniu i ono oswietla geometrie oraz generuje cienie jesli geometria zaslania zrodlo swiatla innej geometrii, w przypadku global illumination czesc geometrii odbija swiatlo i generuje dodatkowe zrodlo swiatlo [maja kolor tekstury geometrii oswietlanej] oswietlejace geometrie obok. W skrocie oznacza to, ze zanienione powierzchnie sa lepiej oswietlone w zaleznosci od intensywnosci swiatla, koloru tekstury oraz refleksyjnosci powierzchni
-God's rayGodrays sa to w skrocie mowiac widoczne promienie swietlne, mozna je wygenerowac na dwa sposoby: w sposob prawdziwy czyli przez oswietlenie wolumetryczne jak w Alan Wake, LBP 2 [chociaz oni to troche inaczej robia] czy Metro 2033 na PC albo przez shader post-processingowy, ktory symuluje przejscie wiazek swiatla przez geometrie przechodza przez dane zrodlo swiatla. Druga metoda mimo jest bardzo szybko, ma jedna znaczaco wade, nei jestes w stanie wyrenderowac wiazek swiatla jesli zrodlo oswietlenia znajduje sie pod katem 90 stopni do renderowanej ramki.
-V-syncSynchronizacja pionowa (ang. vertical synchronization V-sync) – synchronizacja wyświetlania obrazu przez urządzenie wyświetlające z dopływającymi do niego danymi o obrazie.
W tradycyjnych telewizorach oraz monitorach CRT, w których wyświetlanie obrazu odbywa się poprzez przemiatanie plamką świetlną powierzchni obrazu, a napływający sygnał bezpośrednio steruje jasnością plamki, zapewnia synchronizację układu odchylania pionowego z napływającą informacją o obrazie, a tym samym stabilizację pionową obrazu.
W monitorach LCD, których wyświetlanie nie jest oparte na wędrującej plamce, układ synchronizacji zapewnia synchronizację wyświetlania z odświeżaniem pamięci obrazu monitora, która wynika z cykli generowania klatek przez kartę graficzną. Przy wyłączonej synchronizacji zazwyczaj można zauważyć błędy obrazu.
-ShaderKrótki program komputerowy, często napisany w specjalnym języku (shader language), który w grafice trójwymiarowej opisuje właściwości pikseli oraz wierzchołków. Technologia ta zastąpiła stosowaną wcześniej jednostkę T&L.
Cieniowanie pozwala na znacznie bardziej skomplikowane modelowanie oświetlenia i materiału na obiekcie niż standardowe modele oświetlenia i teksturowanie. Jest jednak dużo bardziej wymagające obliczeniowo i dlatego dopiero od kilku lat sprzętowa obsługa cieniowania jest obecna w kartach graficznych dla komputerów domowych. Wcześniej cieniowanie stosowane było w niektórych fotorealistycznych rendererach (np. Renderman), gdzie grafika nie jest generowana w czasie rzeczywistym.
W stosunku do standardowych modeli oświetlenia, stosowanych do generowania grafiki w czasie rzeczywistym, cieniowanie umożliwia uwzględnienie między innymi:
-refrakcji,
-odbić lustrzanych,
-oświetlenia HDR,
-mapy przemieszczeń (displacement maps),
-innych efektów takich jak rozmycie obrazu, zaszumienie, zmiana kolorów, itp.
Vertex ShaderCieniowanie wierzchołkowe – uruchamiane jest raz dla poszczególnych przetwarzanych wierzchołków. Jego zadaniem jest transformacja położenia wierzchołka w wirtualnej przestrzeni 3D na współrzędne 2D na ekranie. Cieniowanie wierzchołkowe może operować na takich własnościach wierzchołków jak położenie, kolor i współrzędne tekstur, ale nie może tworzyć nowych wierzchołków. Wyjście cieniowania wierzchołkowego jest wejściem dla następnego etapu w potoku, jakim jest albo cieniowanie geometryczne (jeśli jest obecne) albo rasteryzator.
Geometry ShaderCieniowanie geometryczne – pozwala na dodawanie lub usuwanie wierzchołków z siatki wierzchołków (ang. mesh). Może być używane do proceduralnego tworzenia obiektów geometrycznych albo do dodawania objętościowych detali istniejących siatek wierzchołków. Te operacje mogłyby być zbyt kosztowne obliczeniowo dla CPU. Direct3D 10 i OpenGL 3.1 mają już zawarte wsparcie dla tego typu cieniowania. Jeśli cieniowanie geometryczne jest używane, to wtedy wyjście z niego jest przekazywane do rasteryzatora.
Pixel Shader lub Fragment ShaderCieniowanie pikseli – jest programowalną jednostką odpowiadającą za wyliczanie koloru pikseli. Direct3D używa terminu "pixel shader", a OpenGL – "fragment shader". Piksele na wejście ich cieniowania są pobierane z rasteryzatora, który wypełnia wielokąty przesyłane z potoku graficznego. Cieniowanie pikseli jest najczęściej używane do oświetlenia sceny i innych powiązanych efektów, np. Bump-mappingu lub kolorowania.
Bump mappingMapowanie wypukłości w grafice 3D technika teksturowania, która symuluje niewielkie wypukłości powierzchni, bez ingerencji w geometrię obiektu trójwymiarowego.
Technika polega na użyciu tekstury, która nie jest jednak bezpośrednio wyświetlana, ale powoduje lokalne zakłócenia (obrót) wektora normalnego. Ponieważ każdy model oświetlenia (np. oświetlenie Phonga) w jakiś sposób wiąże kąt pomiędzy promieniem światła, a wektorem normalnym, to rezultatem zakłóceń jest pojawienie się na obrazie złudzenia nierówności powierzchni. Efekt jest bardzo przekonujący, większość ludzi nie zwraca uwagi na fakt, że brzegi obiektu pozostały "niezakłócone".
-HDR rendering (rendering z użyciem szerokiego zakresu dynamicznego, ang. High Dynamic Range Rendering) Technologia generowania sceny w grafice trójwymiarowej, której efektem jest renderowanie świata z realistycznym oświetleniem, przy użyciu szerszego niż normalnie zakresu jasności oświetlenia.
Największa różnica dostrzegana jest w bardzo ciemnych lub bardzo jasnych fragmentach sceny, gdzie symulowane jest natężenie światła wykraczające poza zakres możliwy do osiągnięcia na ekranie monitora (np. efekt oślepienia po spojrzeniu na słońce).
-Światło wolumetryczne W grafice komputerowej technika symulowania światła rozpraszanego na cząsteczkach znajdujących się w powietrzu (dym, mgła); cząsteczki wymieszane z powietrzem powodują:
-rozpraszanie światła, obserwowane jako snop światła.
-tłumienie światła.
-absorpcję fal o określonej długości.
W przypadku obrazów fotorealistycznych model oświetlenia uwzględnia wszystkie te parametry, może również brać pod uwagę niesymetrię cząsteczek i w zależności od kąta padania światła modulować intensywność światła rozproszonego.
Zrzut ekranu (z ang. screenshot, screen dump, screen capture) czyli zapis aktualnego obrazu wyświetlanego na monitorze, najczęściej do pliku graficznego. W systemach operacyjnych z rodziny Windows zrzut ekranu wykonuje się naciskając klawisz Print Screen, Ctrl+Print Screen lub Alt+Print Screen (w przypadku gdy chcemy zrobić zrzut tylko aktywnego okna, a nie całego ekranu), w systemach Macintosh - Command-Shift-3 lub Command-Shift-4. W systemach Windows zrzut ekranu zapisywany jest do schowka systemowego, skąd można później wkleić go do dowolnego programu graficznego i zapisać do pliku.
Zrzuty ekranu stosuje się np. w celu demonstracji oprogramowania lub problemu użytkownika, umieszczenia ich w instrukcji lub w dowolnym innym przypadku, gdy z pewnego powodu zachodzi potrzeba pokazania zarchiwizowanej zawartości ekranu innym. Bywa również czasem używany, w celu wydrukowania zawartości któregoś z okien, gdy programista nie przewidział możliwości użycia drukarki (a więc np. w celu ominięcia ograniczenia wydruku).
Anizo Filtrowanie anizotropowe to efekt poprawiający jakość tekstur w dalszej odległości rozmywanych przez mip-mapping. Dzięki efektowi mip-mappingu w coraz dalszej odległości od gracza wyświetlane są tekstury o coraz mniejszym rozmiarze, co pozwala zwiększyć prędkość gry i zaoszczędzić pamięć. Pomimo, iż w dalszej odległości nie potrzeba aż tak dużych detali, efekt mip-mappingu jest widoczny aż za dobrze i obraz w oddali jest nieco rozmyty. Tutaj z pomocą przychodzi filtrowanie anizotropowe powodujące całkowicie płynne przejście pomiędzy kolejnymi mip-mapami i poprawiające szczegółowość w dalszej odległości. Daje to dużo lepszy efekt niż pozostawienie tekstur w pełnej rozdzielczości, bez stosowania mip-mappingu, a do tego oszczędza pamięć.