Czy kabel DVI-HDMI Single Link (18pin) może blokować FullHD?

Auror

New member
Cześć,

krótka piłka - jak w temacie.

Kupiłem Samsunga LE37A551 i po podłączeniu do kompa kabelkiem DVI-HDMI obraz nie jest "piksel w piksel" (jest mniejszy niż ekran TV i czcionki są rozmazane). Próbowałem już przełączać kabel HDMI do gniazda nr2, nadawać temu gniazdu nazwę "PC", zmieniać klonowanie na "extended desktop", przełączać TV jako główny wyświetlacz itp. sztuczki, o których przeczytałem na forum.

Uaktualniłem sterowniki i Catalyst Control Center do mojego Radeona X1950Pro.

Wszystko na nic. Rozdzielczość na TV to na moje oko jest taka sama jak na monitorze komutera, do którego TV jest podłączony -> 1680x1050 (rozciągnięte na 4/5 ekranu TV). Wyłączyłem również overscan w TV. Też to nic nie daje. Po wciśnięciu na pilocie przycisku info TV wyświetla wprawdzie info że obraz jest 1920x1080 60Hz, ale gołym okiem widać, że tak nie jest.

Ostatnia rzecz jaka przychodzi mi do głowy to może jest to wina kabla? Przy zakupie się nie zastanawiałem czy 18pin czy 24pin (nie wiedziałem że w ogóle istnieje takie rozróżnienie). Okazało się, że kupiłem 18pin.

Myślicie że kabelek 24pin coś tutaj zmieni?
 

matroks

New member
Cześć Auror,

Ponieważ jeszcze nie mogę wklejać linków (poniżej 5 postów) umieszczę Ci mój post z innego wątku, dotyczącego tego samego problemu.

--------------------------------------------------------------------------------------
Też mam LE37A551 i ten sam problem. Moje podłączenie to:

- grafika ATI 2600XT (2xDVI)

Do karty dołączona była przejściówka DVI > HDMI. Tak więc od przejściówki idę już do TV kablem HDMI i lipa. Obraz nie wygląda jak w natywnej rozdzielczości (tak jak na monitorze LCD19' byś ustawił 800x600, albo to co napisałeś 'nadmiernie wyostrzony', w zależności od ustawień w windowsowych właściwościach ekranu).

W ATI Catalyst Control Center mieszałem dwie godziny, wypróbowałem wszystkie warianty rozdzielczości, częstotliwości, interlaced/progressive itp. Bez pozytywnego rezultatu.

Teraz lecę na kablu VGA i obraz w 1920x1080 jest lepszy, jest mały ghosting i inne 'analogowe' artefakty.

Daj znać jak będziesz miał postęp w temacie.
---------------------------------------------------------------------------------------

Myślałem że to wina ATI, ale kolega na Forum miał ten sam problem na nVidia też. Uporczywie szukam rozwiązania.

Pozdrawiam.
 

matroks

New member
Auror,

Oto mój update:

Kabelek 24 pin nic nie zmieni - próbowałem. Wina leży po stronie karty graficznej albo oprogramowania ATI CCC.

Dzisiaj pożyczyłem Radeona X600 i od razu po połączeniu DVI > HDMI i do portu nr 2 w telewizorze - obraz brzytwa, pixel w pixel.

Niby to też ATI ale w CCC opcji ustawień dla HDMI dla tej karty X600 było o wiele mniej. Tak więc ustawiłem od razu 1920x1080@60Hz i bezproblemowo zadziałało.

Na mojej karcie 2600XT dla HDMI w CCC jest więcej zakładek i pomimo ustawienia wszystkiego identycznie jak w przypadku X600 (na tych zakładkach, które są wspólne dla tych kart) nie udało mi się osiągnąc pixel w pixel. Dużo mieszałem i nic.

Wygląda na to, że potrzebna będzie wymiana karty graficznej, ale pytanie na jaką, skoro to może byc loteria...

Pozdr.
 

cgc

New member
W CCC w trybie zaawansowanym po ustawieniu rozdziałki 1920x1080 trzeba na zakładce atrybuty zaznaczyć "uzyj skalowania GPU", skaluj obraz do rozmiaru ekranu i na zakładce "opcje skalowania" dla odpowiedniego wyjścia ustawić suwak nad wyświetlanym monitorkiem w prawo czyli "Wyk. cał. pow. ek.", przynajmniej u mnie tak to działa, sprawdzałem na zintegrowanym HD3200 i na HD4850. Oczywiście na TV trzeba odpowiednio ustawić overscan.
 

11Solitary25

New member
Witam, miałem też coś takiego w Samsungu LE32B551 -jakkolwiek bym nie podłączał komputera lub xBoxa360 to obraz zawsze był kiepskiej jakości, jakby zbyt przejaskrawiony, zbyt ostry aż ziarnisty, na dodatek większość obiektów miała dodatkowy cień czy lekkie rozmycie w bok -szczególnie czcionki. Działam na nVidia GeForce 9800Pro -zmiany w sterowonikach
Kompa podłączałem poprzez kabel DVI->HDMI , konsole poprzez oryginalny kabelek HDMI Composite.
Rozwiązaniem okazało się "przekierowanie/ustawienie" aktualnie używanego Źródła (Source) na odpowiedni tryb monitora. Dla komputera podłączonego do HDMI2 należało przełączyć jego "nazwę" na typ PC lub DVI-PC. Różnica w jakości powala na kolana.

Wz. instrukcji -nie ma takiego opisu, jednak należy tak zrobić aby mieć pełne wykorzystanie standardu źródła.
Ogólnie : aby podłączyć PC należy podpiać się do HDMI3 (nazwa HDMI3/DVI) -w modelu LE32B551 zalecane HDMI3/DVI , w modelu LE32A551 zalecane HDMI2. Teraz w opcjach : MENU "Wejście" -> opcja "Edytuj nazwę". Pojawi się nam Menu z listą Wejśc. Wybieramy aktualnie podłączone wejście -dla nas HDMI3/DVI (bo tu podłączyłem komputer). Po wybraniu Wejścia pojawia się kolejna lista z trybami monitora -naszemu wejściu należy nadać tryb "PC" lub "DVI-PC" -zresztą poruszając się po tych nazwach monitor od razu będzie nas przełączał i na żywo zobaczymy różnice w jakości dla poszczególnych trybów.

Dla konsoli robimy identycznie -z Menu wybieramy nasze Wejście (np. HDMI1 lub CompositeHDMI), przypisujemy mu odpowiedni tryb -"Gry" lub "Composite" lub "Multimedia". Z konsolką dużo zależy jakim kabelkiem podłączamy oraz gdzie podłączamy :wink: PS. Dodatkowo dla GIER i KONSOL powinniśmy włączać w Menu Ustawienia -tryb GRY. Daje to lepsze efekty, barwę etc. specjalnie do gier i dynamicznych akcji. PS. Tryb GRY nie jest dostępny dla trybów PC , TV oraz Ext. (SCART).

Mam nadzieje że to pomoże... :)
 
Do góry