Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > COMMUNITY ACTIVITIES > NIKON SUSHI BAR
F.Giuffra
Ho una scheda vga Nvidia gtx 760, una tv Ultra hd, un piccolo monitor Ultra hd e un monitor LG 31MU97 che arriva addirittura a 4K (4096*2160).

La scheda riesce a pilotare il monitor 4k solo con l'Hdmi ma solo a 24 Hrz mentre lui andrebbe a 60,

Visto che non gioco qualcuno mi sa consigliare una vga più moderna che gestisca meglio i nuovi display senza problemi, con 10 bit di colore? Magari con almeno due uscite DP e una Hdmi per la tv?

Se mettessi una altra vecchia scheda identica alla mia affiancata cosa succederebbe?

Grazie a tutti.
riccardobucchino.com
Io ho preso Gigabyte GV-N970IXOC-4GD per vari motivi, il primo è che ci sta nel case, il mio case è uno zalman Z9 quindi non lo definirei piccolo ma possono starci VGA fino a 30 cm scarsi di lunghezza, le schede che ho trovato con abbastanza connettori erano lunghe 30,5 cm per cui la scelta era quasi obbligata, secondo motivo è che mi serve poter collegare qualsiasi cosa, non voglio dovermi porre alcun problema e questa ha una DVI-I (analogico adattabile a VGA), un DVI-D (digitale), un HDMI (decisamente poco utile essendo una tecnologia nata obsoleta) e ben 3 displayport (la connessione che sta prendendo maggiormente piede e che si può adattare con un banalissimo cavo all'HDMI qualora serva), terzo motivo è perché supporta i 10 bit con i driver nvidia, quarto perché è potente e ha tanta ram (a photoshop piace la ram video e la potenza perché le usa per alcune operazioni) quinto perché ho comprato fallout 4 e per giocarci a 2560x1600 la 970 è fondamentale, sesto motivo è che essendo pensata per htpc è progettata per consumare il meno possibile e fare poco rumore, consuma comunque tanto a piena potenza ma meno delle versioni "normali" della 970 ed è comunque anche questa overcloccata di fabbrica e minimamente meno veloce di quelle più grandi. Davvero un ottimo prodotto... anche se vista la marca non ci avrei scommesso. Il difetto di questa scheda è che richiede un alimentazione a 8 poli, ma ovviamente gli alimentatori ne hanno solo uno connettore 8 poli e lo usa la piastra madre (se è una piastra di fascia alta altrimenti usa il 4 poli) e hanno 1 o 2 connettori 6 poli ossia quelli tipicamente usati dalle VGA, ma no, gigabyte usa l'8 poli che ovviamente non hai e ti fornisce un connettore che usa 2 molex per darti l'8 poli e... sorpresa delle sorprese.... degli 8 poli ne usa solo 6 quelli più ai lati e 2 in mezzo non li usa... insomma sono degli idioti patentati e chi ha progettato quell'alimentazione aveva le pigne nel cervello quando invece doveva mettersele da un altra parte e quindi al posto di usare il tuo bel 6 poli devi mettere quello schifo di adattatore.
F.Giuffra
Grazie Riccardo. Visto che non ho problemi di lunghezza mi han consigliato una Asus GtX 960 o 970 con 3 Dp, una dvi e una hdmi e l'adattatore persino per i vecchissimi monitor che non userò mai. Forse per chi non gioca basta la minore. Ma non riesco a capire se i 10 bit di colore sono supportati!!
F.Giuffra
Inoltre la 970 dichiara la massima risoluzione, pure la 980, la 960 no, sarà un refuso?
"digital Max Resolution:4096x2160"
F.Giuffra
Una è a 128 bit e l'altra a 256, per chi non gioca cambia qualcosa?
riccardobucchino.com
Anche la mia ovviamente ha l'adattatore da DVI-I a quella che chiami "porta per i vecchissimi monitor" ossia la VGA che io uso per il monitor secondario. Ti prego di non insultare la VGA perché è una tecnologia nata in passato ma pensata per quello che all'epoca era un futuro molto lontano, oggi le tecnologie nascono obsolete come per esempio l'HDMI o il DVI, per fortuna ora si sta diffondendo la DP che è una connessione seria.

Io nel dubbio starei sulla 970 perché supporta sicuramente i 10 bit (almeno la mia li supporta), la 960 non lo so, se compri su amazon prenditi la 960, la provi se non va bene la restituisci e ti prendi la 970, io ormai per togliermi i dubbi compro le cose e le provo, se non van bene le rendo, come il gps per la reflex, l'ho preso, provato in viaggio, non mi è piaciuto, restituito, una volta invece mi sarei preoccupato del "e se non va bene? che sbatta poi fare lunghe procedure di lamentale" e invece con amazon è meravigliosamente semplice. Asus è un ottima marca ma avevo scartato le loro vga per qualche motivo non legato alle dimensioni, non ricordo più.
F.Giuffra
Grazie Riccardo,
il mio negoziante dice che io ho una mb Asus e quindi una vga asus sarebbe più compatibile, non so quanto sia vero.

E le Radeon, per chi non gioca, non ti piacciono?
riccardobucchino.com
QUOTE(F.Giuffra @ Jan 16 2016, 02:39 PM) *
Grazie Riccardo,
il mio negoziante dice che io ho una mb Asus e quindi una vga asus sarebbe più compatibile, non so quanto sia vero.

E le Radeon, per chi non gioca, non ti piacciono?


La mia piastra madre è asus, prima avevo una VGA asus, poi una gainward ora una gigabyte, il bello dei pc è proprio che puoi fare un po' come nella casa delle libertà!

Le radeon, beh, io ho processore amd, sono fan di AMD da sempre (anche se per un periodo ho avuto tutto intel perché gli amd non erano all'altezza e stanno tornando a non esserlo, oggi vendono ancora la mia CPU 8 core che ho preso non so 2-3 anni fa) ma le radeon che sono marchiate AMD sono in pratica delle ATI, marchio che storicamente ha SEMPRE avuto eccellenti prodotti e PESSIMI driver, ora pare che siano migliorati anche i driver ma onestamente non mi fido, certe tecnologie nvidia vengono largamente sfruttate dai software adobe e non sono presenti su ATI per cui nel dubbio io scelgo nvidia anche se dalla loro le amd hanno un consumo minore di energia e prezzi un pelo più bassi.
togusa
QUOTE(F.Giuffra @ Jan 16 2016, 01:00 PM) *
Una è a 128 bit e l'altra a 256, per chi non gioca cambia qualcosa?



Questo valore in bit a cui fai riferimento è quello relativo all'ampiezza, in bit, del bus della memoria.
Solitamente è un valore legato alla quantità di memoria video disponibile (più memoria = più banchi di memoria separati = più bit di ampiezza totali).
Nel tuo particolare caso non fa alcuna differenza.
F.Giuffra
Ma una 970 riesce a pilotare contemporaneamente due display ultra hd e uno 4k?? Non riesco a capirlo, a trovare dove sia scritto....
F.Giuffra
Un amico del forum mi ha suggerito di non togliere la mia vecchia scheda ma di affiancarla ad una nuova.

Qualcuno ha esperienza? Avere una scheda nuova e una più vecchia non interferisce?

Grazie ancora a tutti.
pes084k1
QUOTE(F.Giuffra @ Jan 17 2016, 01:36 PM) *
Un amico del forum mi ha suggerito di non togliere la mia vecchia scheda ma di affiancarla ad una nuova.

Qualcuno ha esperienza? Avere una scheda nuova e una più vecchia non interferisce?

Grazie ancora a tutti.


Bravo! Una scheda PCI-E va a 16x sulle motherboard, due vanno a 8x ciascuna (è un bus...), quindi la banda non cambia e neppure la potenza teorica. In compenso doppie slot e alimentazioni. Bravo ancora! Nelle MB con Intel c'è sempre un'altra scheda decente che non interferisce e va in parallelo. Del resto come in fotografia, Internet pullula di idee sbagliate e perfino dannose sui PC.
4K sono c..i ancora oggi a 60 fps, una camera Super 35 da 120 fps in ripresa costa 30K (e va peggio di una A7r, specie Mk II). A 60 fps passano 4 x 60 x 8M = 2 Gb/s che vanno processati per monitor e pure intensamente.
Quanto agli alimentatori, il cavo 6+2 è quello che serve e ce ne sono a bizzeffe tra gli alimentatori decenti (non serve prendereli a 200 €, a metà fanno lo stesso)! Ma se una scheda ne usa di meno, prendee quella, è migliore e da meno grane. L'esaltazione delle caratteristiche di targa è una stupidaggine.
Mi sto intando assemblando un case HAF-X pieno zeppo, vedremo... intanto già 150€ di costi di "non qualità"!

A presto telefono.gif

Elio
Elio
riccardobucchino.com
QUOTE(F.Giuffra @ Jan 16 2016, 07:59 PM) *
Ma una 970 riesce a pilotare contemporaneamente due display ultra hd e uno 4k?? Non riesco a capirlo, a trovare dove sia scritto....


Secondo me si, da quel che ho letto dovrebbe reggere 2 monitor in 4K... persino giocando (chiaramente non potrai settare chissà quale qualità), ma in linea di massima la risoluzione influenza pochissimo le prestazioni, la quantità di dati che puù lavorare una scheda video è mostruosamente elevata, se si potessero usare le VGA come processori di calcolo principale una 970 farebbe mangiare la polvere al più potente i7!

QUOTE(pes084k1 @ Jan 17 2016, 03:34 PM) *
Bravo! Una scheda PCI-E va a 16x sulle motherboard, due vanno a 8x ciascuna (è un bus...), quindi la banda non cambia e neppure la potenza teorica. In compenso doppie slot e alimentazioni. Bravo ancora! Nelle MB con Intel c'è sempre un'altra scheda decente che non interferisce e va in parallelo. Del resto come in fotografia, Internet pullula di idee sbagliate e perfino dannose sui PC.


Esiste la tecnologia sli e la potenza usando due schede (uguali) aumenta e soprattutto se una regge un tot di monitor in 2 ne reggono il doppio, motivo per cui si usano configurazioni multi-vga per usare molti monitor, la velocità di trasferimento tra VGA e computer ossia la banda che passa sulla PCI-E conta solo in determinati ambiti, chi genera bitcoin (e non è gente stupida) usa configurazioni con parecchie VGA nella stessa macchina per avere più potenza di calcolo, lo stesso lo si fa in ambiente medico, in astrofisica e nelle ricerche più disparate, la potenza di calcolo delle VGA è davvero immensa e con poco costo e poca corrente (relativamente) lavorano enormi quantità di dati. O sei furbo solo tu o sono furbe migliaia di persone al mondo che investono decine di migliaia di € in gruppi di macchine infarcite di VGA fino a scoppiare!

QUOTE(pes084k1 @ Jan 17 2016, 03:34 PM) *
una camera Super 35 da 120 fps in ripresa costa 30K (e va peggio di una A7r, specie Mk II).


Ma cosa stai dicendo?

QUOTE(pes084k1 @ Jan 17 2016, 03:34 PM) *
Quanto agli alimentatori, il cavo 6+2 è quello che serve e ce ne sono a bizzeffe tra gli alimentatori decenti (non serve prendereli a 200 €, a metà fanno lo stesso)! Ma se una scheda ne usa di meno, prendee quella, è migliore e da meno grane. L'esaltazione delle caratteristiche di targa è una stupidaggine.


Bravo, vuoi un premio? Io ho detto che il mio alimentatore (che non è proprio un giocattolo) non le ha, o meglio ce l'ha ma avendo io una piastra di fascia alta l'8 poli lo usa la piastra, del resto è del 2007 e le vga usavano al massimo i 6 poli, del resto anche la mia nuova VGA degli 8 poli ne usa solo 6. Ce ne sono altre schede molto simili di altre marche che usano il 6 poli, altre usano 2 6 poli, ogni produttore fa un po' come gli pare ma il numero di poli non varia la qualità delle schede ne la loro potenza, per la qualità ci sono le statistiche, per la potenza ci sono i test, ma non stiamo a perdere tempo tra la peggiore e la migliore 970 c'è si e no il 5-6% di differenza, una quantità del tutto trascurabile specie se non si gioca.

QUOTE(pes084k1 @ Jan 17 2016, 03:34 PM) *
Mi sto intando assemblando un case HAF-X pieno zeppo, vedremo... intanto già 150€ di costi di "non qualità"!


E quindi cosa vuoi dire? E i 150€ di costi di non qualità cosa diavolo sarebbero?
niklaudio77
Le schede in SLI (nvidia) o in CROSSFIRE (ati) devono essere identiche.
Le schede accoppiate si spartiscono il lavoro hanno una connessione personalizzata.Esistono versioni già accoppiate o con GPU multiple.
Ciao
F.Giuffra
Cosa succede se si accoppiano due Nvidia diverse? Non possono gestire ognuno dei monitor?
riccardobucchino.com
QUOTE(F.Giuffra @ Jan 17 2016, 11:35 PM) *
Cosa succede se si accoppiano due Nvidia diverse? Non possono gestire ognuno dei monitor?


Succede che nel peggiore dei casi una non viene neanche considerata, nel migliore dei casi devi scegliere dal driver quele usare per l'accelerazione grafica e quale usare solo come "connettore per monitor". Per i giochi puoi per esempio usare la scheda più potente per la grafica e la meno potente per la fisica.
togusa
QUOTE(F.Giuffra @ Jan 17 2016, 11:35 PM) *
Cosa succede se si accoppiano due Nvidia diverse? Non possono gestire ognuno dei monitor?




È un discorso complicato.
Ad esempio, avere schede nvidia di diverso modello contemporaneamente, equivale ad avere schede video di marche diverse (tipo una nvidia e una ati/amd, per dire, ma anche una nvidia discreta più la intel integrata nella cpu ricade in questa ipotesi).
In questo caso, è possibile usarle tutte contemporaneamente per pilotare quanti monitor si vuole in modalità 2D, vale a dire in windows (desktop estesi o multipli) e in applicazioni di tipo desktop (come photoshop, autocad, office, ecc.).
Se si vuole applicare l'accelerazione 3D per la grafica, ad esempio i giochi, occorre decidere quale scheda dovrà essere usata per l'output 3D.
Recentemente poi sono uscite tecnologie (di cui ignoro lo stato di sviluppo) che consentono di accoppiare schede video di marche e modelli diversi in una sorta di HybridSLI/Crossfire (anche ATI + NVIVIA) anche per l'accelerazione 3D dei giochi.
A parte questo però, le applicazioni moderne (ad esempio Archicad, Autocad, ecc.) che sfruttano l'accelerazione di calcolo delle schede video, lo fanno internamente ed indipendentemente dall'output grafico della scheda, vale a dire che possono usare contemporaneamente tutte le schede grafiche che abbiano caratteristiche di GPGPU montate nel pc.
Ad esempio, un mio amico per lavoro fa rendering in Archicad e sul suo pc monta 3 schede video (2 GTX 275 e una GTX 780) e vengono usate tutte per i calcoli in virgola mobile del motore di render.
F.Giuffra
Ho inserito una seconda Vga e tutto sembra andare al massimo perfettamente.

Non riesco a trovare dove indicare quale è la scheda per l'output 3d, ovviamente la più recente.

Quando non la uso consuma lo stesso corrente? Non c'è modo di s"spegnerla" via software senza aprire il case ogni volta?

Grazie ancora.
ilPeppe73
Ciao non ho letto utti i post troppo lunghi da rileggere, se non ai problemi di denaro ti suggerisco la 980Ti della MSI sfrutta la risoluzione a 2 e 4k, poi se ai piu soldi fai un sli di 980Ti
togusa
QUOTE(F.Giuffra @ Jan 19 2016, 01:27 PM) *
Ho inserito una seconda Vga e tutto sembra andare al massimo perfettamente.

Non riesco a trovare dove indicare quale è la scheda per l'output 3d, ovviamente la più recente.

Quando non la uso consuma lo stesso corrente? Non c'è modo di s"spegnerla" via software senza aprire il case ogni volta?

Grazie ancora.



La scheda video usata per il 3D credo sia quella su cui viene visualizzato il desktop principale (lo schermo "numero 1" di Windows).
Le schede video a cui non sono collegati monitor o solo monitor spenti non dovrebbero venire utilizzate, ma non c'è modo di deciderlo manualmente, né serve farlo perché è gestito dal sistema.
riccardobucchino.com
QUOTE(togusa @ Jan 19 2016, 02:05 PM) *
La scheda video usata per il 3D credo sia quella su cui viene visualizzato il desktop principale (lo schermo "numero 1" di Windows).
Le schede video a cui non sono collegati monitor o solo monitor spenti non dovrebbero venire utilizzate, ma non c'è modo di deciderlo manualmente, né serve farlo perché è gestito dal sistema.


Dovrebbe essere nel pannello nvidia sotto "impostazioni 3d" alla voce "configura sorround e physics"
togusa
QUOTE(riccardobucchino.com @ Jan 20 2016, 01:52 AM) *
Dovrebbe essere nel pannello nvidia sotto "impostazioni 3d" alla voce "configura sorround e physics"



Quello è il posto in cui si decide quale delle schede video montate, se più di una è presente, deve gestire i calcoli dei processi PhysX (non physics), che gestiscono la simulazione delle forze fisiche, come la gravità, l'attrito, le traiettorie di rimbalzo e caduta libera degli oggetti in movimento nei giochi.
http://www.nvidia.it/object/nvidia-physx-it.html

Non decide quale scheda verrà usata per l'output grafico 3D.

Questi calcoli, normalmente, vengono gestiti dal processore della scheda grafica, sottranedo potenza di calcolo da dedicare alla grafica 3D.
Essendo però questo tipo di calcoli una cosa puramente "numerica" e non grafica, ed essendo solitamente abbastanza onerosi, è possibile decidere di assegnare una scheda video presente sul pc, magari un po' più vecchia, esclusivamente a questi calcoli, alleviando il carico a quella principale che verrà quindi dedicata interamente alla parte grafica, senza rallentamenti.

In caso di una sola scheda presente, oppure se non viene specificato altrimenti, tutto verrà gestito dalla scheda principale.
F.Giuffra
Grazie a tutti

Ho selezionato la scheda secondaria, così se dovessi mai giocare lka prima gestirebbe solo il primo monitor.

Ho fatto bene o ho fatto giusto? wink.gif

Clicca per vedere gli allegati
riccardobucchino.com
QUOTE(F.Giuffra @ Jan 20 2016, 08:59 PM) *
Grazie a tutti

Ho selezionato la scheda secondaria, così se dovessi mai giocare lka prima gestirebbe solo il primo monitor.

Ho fatto bene o ho fatto giusto? wink.gif

Clicca per vedere gli allegati


Hai fatto benissimo, però se non giochi la secondaria toglila, succhia un bel po' di corrente anche senza fare niente.
F.Giuffra
Non c'è modo di spegnerla quando non serve via software, senza smontare tutto?

Se non gioco devo disabilitare lo PhysX sulla secondaria o non consuma se non gioco?

Grazie ancora.
togusa
Viene usato solo quello che serve quando serve.
riccardobucchino.com
QUOTE(F.Giuffra @ Jan 21 2016, 10:46 AM) *
Non c'è modo di spegnerla quando non serve via software, senza smontare tutto?

Se non gioco devo disabilitare lo PhysX sulla secondaria o non consuma se non gioco?

Grazie ancora.


La vga consuma per il solo fatto che è nel pc. Non ho mai sentito di piastre madri che permettono di spegnere una pci-ex quindi rimane alimentata e pronta all'azione, chiaramente se in uso pesante consuma magari anche 200W se non la usi ne consuma magari solo 20-40, però sono più di zero, chi lavora su software che non usano acclerazione 3d o calcolo gp-cpu comprano fascie basse delle quadro perchè consumano 35W max, ossia meno di una vga per giochi quando è li a fare niente (sono anche infinitamente meno potenti). PhysiX viene usato praticamente solo dai giochi quindi se non giochi non ha extra consumo. Nei giochi avere una scheda per la fisica è una gran cosa (io la fisica la faccio fare alla cpu, tanto con 8 core a 4,45 ghz la fisica se la mangia a colazione) guadagni un po' di fps perché la vga principale è più scarica, però se non giochi è davvero inutile, a me fanno ridere i professionisti che mettono 2 vga in sli (e spesso sono 2 ciofeche) perché così la grafica è migliore e poi scopri che usano solo photoshop e che una sola scheda che costa come la somma delle due ha prestazioni doppie. Tu ne hai due perché l'altra è qulla vecchia e ha senso, però se non la sfrutti toglila, se fai rendering, se usi premiere (succhia potenza alle vga come se non ci fosse domani con alcuni comandi) etc allora le sfrutti per il calcolo cuda o comunque gp-cpu ma altrimenti è solo una stufetta elettrica dentro il case.
togusa
Ma lui la seconda scheda video l'ha montata per collegare più monitor... ma non mi è mai stato chiaro il motivo per cui non potesse farlo con una scheda sola, dato che mi pare di vedere che abbia 5 uscite video in totale (4 se escludiamo la vetusta DVI) di cui 3 display port.
F.Giuffra
Non gioco praticamente mai, non so se fotoscioppo con due vga possa avere un qualche significato.
Con la 760 non riuscivo ad usare due monitor in altissima risoluzione. La 960 va bene ma se accendo pure la Tv H-Hd va in palla, quindi ora pilota solo il monitor 4k a 10 bit, la 760, stufetta con doppio cavo di alimentazione, il secondo monitor u-hd a 10 bit una tv H-Hd a 8 perché non va a 10, non è un monitor.

Quando lavoro, quasi sempre, con un monitor solo mi piacerebbe spegnere la seconda vga ma mi pare impossibile.
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.