Teraz żeby wykorzystać system szkieletów w grze bez avatarów , trzeba od nowa sobie kod napisać... a wydawało by się , ze to taka podstawowa, powszechna funkcja Kinecta , która powinna być szeroko i bezproblemowo dostępną dla developerów.
Przyznam, że nie wiem dokładnie jak to działa, więc w tej chwili teoretyzuje, ale jeżeli podejrzałbyś sobie modele i szkielety różnych postaci z rożnych gier zobaczyłbyś, że w każdej grze wygląda to trochę inaczej; inna jest szczegółowość szkieletu, inaczej są ustawione stawy, kości, inaczej działa animacja itp. Żeby np. przenieść model Lary z TR: Legend do RE4 (coś, co zrobił jeden z użytkowników form o modowaniu RE4) trzeba było nanieść bezszkieletowy model Lary na postać z RE4 i ręcznie dostosowywać dostosować szkielet z RE4 do modelu Lary. Wyobrażasz więc sobie teraz, by Microsoft stworzył uniwersalny szkielet i system animacji, który mógłby się dostosować do każdej gry i jednocześnie nie narzucał developerowi żadnych ograniczeń? Nie, nie jest to możliwe.
Do tego dodajmy spory lag spowodowany "licznymi kalkulacjami". Dobry programista tak zoptymalizuje kod, że obliczenia nie będą tak czasochłonne , ale widać tutaj zabrakło talentu , no albo mocy Razz
Albo po prostu analiza obrazu 3D wraz z wykrywaniem postaci jest zasobochłonna? Nie, to nie może być to.
Praktycznie mogę się założyć, że o wyeliminowaniu laga i precyzji zbliżonej do pojedynczego piksela nie ma mowy. Mr_Zombie - przyjmujesz?
Ameryki tu nie odkryłeś, bowiem ograniczenia
techniczne nie pozwalają na całkowite wyeliminowanie laga oraz otrzymanie precyzji zbliżonej do pojedynczego piksela (sensor głębi ma rozdzielczość zaledwie 320x240px). Mowa była jednak o zminimalizowaniu laga, poprawieniu precyzji oraz odciążeniu procesora, co jest robione
software'owo i to da się zrobić. Ba, Microsoft przecież cały czas pracuje nad bibliotekami poprawiając detekcję postaci, bo Kinect swoją premierę ma dopiero za kilka miesięcy.
Zastanawia mnie jednak czemu w takim EyeToy Antigrav nie było laga - przynajmniej nie takiego który by przeszkadzał w rozgrywce - a gra wymagała sporego refleksu. Przecież działało to na tej samej zasadzie (swoimi ruchami sterowaliśmy wirtualną postacią w grze).
Bo przetwarzanie obrazu 2D jest prostsze, niż przetwarzanie obrazu 3D? W EyeToy Gravity brane było tylko pod uwagę, czy lewa bądź prawa ręka jest wyciągnięta, co jest stosunkowo łatwo zrobić (przynajmniej obecnie, nie mam pojęcia, jak to było dawniej), analiza obrazu jest bowiem wykonywana po pikselach. W Kinect otoczenie jest skanowane w "3D", wykrywane są osobne postacie, na ich podstawie budowany jest szkielet człowieka i informacje o animacji. To nie jest to samo.
EyeToy to jedna kamera, a Kinect dwie. Obraz z dwóch kamer pewnie trzeba złożyć, przeanalizować i stworzyć ową mapę głębi.
Nie, Kinect zawiera jeden sensor głębi i jedną kamerę RGB. Mapa głębi wykonywana jest tylko przez sensor głębi.