Pagina 1 di 1

Analogico o digitale??

MessaggioInviato: 02 mag 2007, 22:56
di mattarellox
Ragazzi scusate una domanda da iniorante..
Ho accattato un monitor lcd Acer AL1916w, 19" wide ma ha solo l'ingresso vga.
Io l'ho collegato all'uscita dvi della scheda con un adattatore dvi-vga.
Ho fatto una ca....a oppure no???
Che differenza in termini di prestazioni tra ingresso dvi e vga??
Sono ancora in tempo per portarlo indietro..... Consigli please...

MessaggioInviato: 02 mag 2007, 23:10
di diegofio
vga è la connessione analogica mentre dvi è digitale, la differenza è piuttosto visibile comunque ci sono anche buoni pannelli che sopperiscono al limite dell'analogico.
quindi o lo colleghi direttamente all'uscita vga della tua scheda (se presente) oppure come hai fatto te va uguale.

MessaggioInviato: 02 mag 2007, 23:26
di mattarellox
Io sapevo che uscendo direttamente in digitale si evita alla scheda il lavoro della conversione e quindi può dedicare tutte le sue risorse al calcolo vero e proprio.
Infatti sembra che sui giochi renda meglio....
Io però non capisco come un segnale digitale possa entrare in un monitor dall'ingresso analogico.

MessaggioInviato: 02 mag 2007, 23:42
di diegofio
attraverso un DAC che converte il segnale da digitale ad analogico

MessaggioInviato: 04 mag 2007, 22:20
di mattarellox
Quindi la scheda esce in digitale e non impiega risorse per convertire il segnale.
A convertire ci pensa il monitor. Giusto??

MessaggioInviato: 04 mag 2007, 23:41
di diegofio
no non esattamente non mi sono spiegato bene evidentemente: qualsiasi scheda video produce un segnale digitale. nel tuo caso la scheda video non può buttarlo fuori direttamente visto che tu hai un monitor che accetta solo segnali analogici. quindi necessariamente il segnale deve essere convertito in analogico dalla scheda video (attraverso un chip detto ramdac che non è altro che un tipo di dac, lavora a 400MHz). il segnale analogico viaggia sul cavo e poi viene riconvertito in digitale dal tuo monitor. questa doppia conversione può comportare degli errori causati per esempio dai dispositivi che la eseguono (la conversione comporta una perdita di informazione) o dal rumore che si ha sempre quando si trasmettono dei dati.
ciao

MessaggioInviato: 05 mag 2007, 21:12
di mattarellox
La mia scheda video ha due uscite. La vga e la dvi. Io esco dall'uscita digitale della scheda video per entrare nell'ingresso del monitor vga.
Il cavo è vga ma ho messo un'adattatore dvi-vga nella scheda.
Quindi il percorso è questo:
Scheda uscita dvi - adattatore dvi-vga - cavo vga - ingresso monitor vga.
Ora se io uso l'uscita dvi della scheda il segnale non sarà analogicizzato ma rimane digitale. O sbaglio??

MessaggioInviato: 05 mag 2007, 22:01
di diegofio
no sempre in analogico avviene il colegamento addirittura l'aggiunta di un componente come l'adattatore potrebbe provocare dei disturbi in più quindi la meglio cosa sarebbe usare direttamente la vga sulla scheda video (anche se parliamo di differenze praticamente invisibili a meno che tu l'adattatore non lo abbia preso da un venditore ambulante).

MessaggioInviato: 06 mag 2007, 10:02
di mattarellox
Se uso l'uscita vga però non ho a disposizione le risoluzioni più alte tra cui la 1440*900, risoluzione nativa del monitor.

MessaggioInviato: 06 mag 2007, 20:07
di diegofio
allora non ti resta che usare l'adattatore, la pedita che ti dicevo era più un concetto teorico in realtà è praticamente invisibile.