QUOTE=tasmaniec;638864]Dzięki za odpowiedzi ale łatwo się domyślać, że jeśli ktoś się tematem nie interesował to za dużo z Waszych wypowiedzi o ilościach linii, klatek ich parzystości i nieparzystości nie wywnioskuje. Niestety nadal prosiłbym o jaśniejsze, jeśli to możliwe bardziej konkretne odpowiedzi, przy czym TV z FullHD będzie lepszy od TV HD.
Będę miał TV UPC cyfrowe 80 kanałów w tym 4 nadawane w HD - tak przynajmniej mówią. TV będzie głównie do oglądania programów z dekodera UPC, filmów z usb, zdjęć z kompa (raczej wcale BR, PS).
Byłem zdecydowany na LG 42PJ550 (HD) w tym momencie nie wiem czy nadal pozostać przy plasmie czy może nie warto?
Jeśli mogę to proszę o wypowiedzi na temat HD/F HD i jaki telewizor byście polecali do moich potrzeb tak by nie przekroczyś i tak zwiększanego budżetu 2500 .[/QUOTE]
Ja mam podobne warunki nadawcze, bowiem także korzystam z UPC oraz z opcji HD, przy czym mam pełny pakiet i programów w HD jest coś koło 12 czy 14. Zatem mogę Ci doradzić, abyś nie zawracał sobie głowy czymś co nie jest Full HD. UPC nadaje sygnał w pełnym HD czyli 1080 linii. Jak kupisz TV HD Ready to nie będziesz nigdy oglądał dobrego obrazu. Obecny SD jest jeszcze nadawany analogowo (ale w UPC masz sygnał w SD cyfrowy i jakość SD z cyfrowego jest doskonale skalowane do pełnego HD). Zatem wszystkie argumenty przemawiają za Full HD.
Natomiast wszelkie dywagacje o skalowaniu sygnału analogowego SD do pełnego HD nie mają sensu w tych konkretnych warunkach. Dlatego nie zawracaj sobie nimi głowy.
A na dodatek już od 2012 roku (a w niektórych regionach wcześniej) przechodzimy w Polsce całkowicie na sygnał cyfrowy DVB-T i sygnał nawet SD będzie doskonałej jakości (mają być nadawane także obrazy w HD). Czyli także obecne dywagacje o przekształcaniu analogowego SD do postaci cyfrowego HD tak ze będzie bezprzedmiotowe (chyba że kupujesz telewizor na pół roku).
Zatem kupując TV HD ready będziesz miał zawsze "psuty" obraz bo z pełnego HD TV musi zepsuć obraz aby z 1080 linii jakie są w sygnale doprowadzić do 720 możliwej do pokazania przez telewizor (czyli w praktyce nie da się tego zrobić bezstratnie). Z sygnału SD 576 linii zrobić musi 1366 także nie da się tego uzyskać bezstratnie.
Pomijam, że matryce telewizorów HDR są tzw. starszego typu bo już się nie opracowuje w tym formacie nowych konstrukcji - ale to już drobiazg.
Dalej z Blu-Raya także masz pełny HD, czyli HDReady znowu popsuje obraz.
Dlatego warto wyciągnąć wnioski logiczne, dostosowane do konkretnej sytuacji i warunków.
Natomiast zrobisz tak jak sam uznasz za właściwe. Ja nie mam zamiaru przekonywać, w końcowym rozrachunku to twoje pieniądze.
Dodam, że obserwując dyskusję na tym forum jestem pełen podziwu dla Kolegi DIGITALUS który uzasadnia rzekomą wyższą jakość obrazu HD Ready i nawet dla wzmocnienia swoich argumentów zamieszcza linki do swoich własnych wypowiedzi, co ma nas upewnić, że ma rację:
P.S.
Uwaga generalna do kolegi DIGITALUS, który napisał:
Hej !
Oglądając w MM telewizory zauważyłem dziwną zależność. Chodzi o TV 42
cale. Plazma HD ready z rozdzielczością 1024x768 dawała znacznie
ostrzejszy obraz niż LCD FullHD - mowa o sygnale SD. W takim sensie że
rozmazanie nieostrości w przypadku LCD fullHD było jak dla mnie
nieakceptowalne (oczywiście wlazłem w menu i dałem ostrość na max w
każdym przypadku).”
Warto może zauważyć, że pomyliłeś kolego >Digitalus< TV analogowy i jego możliwości z telewizorami LCD oraz plazmowymi.
Ostrość to możesz na maxa ustawiać w TV analogowym gdzie telewizor poprzez zmianę napięcia zmniejszał wielkość plamki na kineskopie i być może coś bardziej ostrego mógł pokazać (bo plamka mogła być nieco zmniejszona). Plamka w analogu to kropka która mogła pokazać najmniejszy punkt tylko taki jaki mieścił się w średnicy plamki, czyli takie coś co można porównać do jednego pixela w LCD czy plazmie. Czyli wielkość każdego punktu zależała od wielkości plamki. Im grubsza plamka tym większy punkt mógł być pokazany, a im mniejsza plamka tym mniejsze punkty (czytaj szczegóły) mogły być pokazane. Czyli ustawianie maksymalnej ostrości w analogu polegało na zmniejszeniu (w pewnych granicach) średnicy punktu. I tutaj jest OK.
Ale plazmie i LCD niczego (czytaj: jednego pixela) za diabła nie zmniejszysz choćbyś i na maxa ustawiał co chcesz w telewizorze. Pixel to pixel czyli jeden punkt i on będzie zawsze jednym punktem i na dodatek za nic nie zmniejszysz jego średnicy. Jeden pixel może pokazać każdy punkt tylko w w swojej średnicy – i koniec zmiana ostrości nie zmieni pixela – bo tutaj o co innego chodzi.
Tyle, że zmiana ostrości może być dokonana w plazmie i LCD jedynie na sygnale analogowym (czyli obecnie w SD) natomiast niczego nie zmieni w sygnale cyfrowym bo to fizycznie niemożliwe. Każdy punkt w sygnale nadawczym jest wyświetlany przez jeden pixel w telewizorze i nie ma miejsca na nic innego. Nie da się wyświetlić lepszej ostrości.
Natomiast telewizor plazmowy i LCD obrabiając sygnał analogowy może dodać do obrazu ramkę - to coś pracuje w analogu i powoduje powstanie na krawędziach jasnych i czarnych obwódek (ramek). Obraz wtedy przechodzi w coś co nazywa się solaryzacją.
Zatem jak ustawiałeś na maxa obraz SD to doszczętnie zepsułeś obraz SD wprowadzając dodatkowe artefakty. A różnice w efektach końcowych nie wynikają z konstrukcji telewizora tylko wynikają z osobniczych ustawień poszczególnych producentów. Czyli ile i jak grube ramki są dodawane.
Zatem jak coś chciałeś sprawdzić - i udowodnić maluczkim - trzeba było zniwelować poprawiacze obrazu czyli ostrość ustawić na minimum a co najwyżej kontrastem albo gammą podciągnąć kontrast (czyli subiektywnie poprawić ostrość). I wtedy było dokonać porównań.
Pozdrawiam i życzę przyjemnego eksperymentowania.