FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
3 Pagine: V  < 1 2 3  
Che Scheda Video Per Dei Colori Fedeli?
x capire se l'hardware del PC influenza o serve x 1buon monitor IP
Rispondi Nuova Discussione
Seba_F80
Nikonista
Messaggio: #51
QUOTE(federico777 @ Aug 20 2012, 03:08 PM) *
Grazie per i dati.
Tuttavia, il senso della mia domanda era: se una Radeon o Geforce non supporta i colori a 10bit come sembrerebbe da uno dei post precedenti, che vantaggio ci sarebbe ad utilizzare l'uscita DisplayPort della medesima? Nessuno, credo...

F.


esattamente. Un workflow a 10bit per canale colore è possibile se ogni componente supporta i 10bit, ma DisplayPort non necessariamente significa 10bit.
Riporto da wikipedia (http://it.wikipedia.org/wiki/DisplayPort):

Supporta Profondità di colore di 6, 8, 10, 12 e 16 bits per componente.

Tutto il sistema, compreso il sistema operativo, deve essere in grado di abilitare i 10bit per canale colore; anche una scheda con l'elettronica capace di generarli e trasmetterli tramite la DisplayPort al Monitor (wide gamut a 10bit per canale colore) va abilitata mediante i driver giusti ed il SO giusto. Inoltre, in tutto questo, l'applicazione che si adopera deve avere abilitato il plug-in o l'opzione per attivare tale supporto.

In Photoshop ciò è possibile solo dalla versione CS4 in poi:

http://forums.adobe.com/thread/506853

http://www.ronmartblog.com/2011/07/guest-b...-bit-color.html al paragrafo "Enabling 10-bit Per Color Channel (30-bits total) in Photoshop CS4"

Seb
riccardobucchino.com
Messaggio: #52
QUOTE(Seba_F80 @ Aug 19 2012, 05:34 PM) *
Se non dico una sciocchezza, nella categoria GeForce sono solo 3 schede grafiche a supportare la DisplayPort, tutte del tipo GTX: GTX 660 Ti, GTX 670 e GTX 680 http://www.nvidia.it/object/geforce_family_it.html ...

Forse una soluzione più economica è la Radeon ...


é probabile, perché la display port non è molto comune, ne molto utilizzata, cmq sono molte le schede che supportano i 10 bit tramite doppio dvi dual link. Sicuramente anche ati che produce ottime schede ne vende con la display port ma IO una ati non la compro neppure sotto tortura, cosa me ne faccio di una scheda performante se poi il driver non è in grado di sfruttare la potenza? E' come un'auto con la frizione che non attacca bene, potenza il motore ne ha, ma non la manda tutta sulle ruote! Io ho avuto le mie brutte esperienze con ati e non ho intenzione di replicare l'errore.


QUOTE(Seba_F80 @ Aug 19 2012, 05:34 PM) *
Ma il collegamento in HDMI? Nel forum di AMD dicono che supporta i 12 bit per canale, ma questo significa che si potrebbe collegare il monitor con la HDMI anziché la Display Port? Se così fosse tutte le Nvidia hanno l'uscita HDMI ...

(altra confusione .... smilinodigitale.gif )
Cioè significa che ad esempio l'istogramma e le curve usano come limiti superiori non il 255 per rappresentare la massima luminosità ma 1023? (1024 = 2 exp 10)


L'HDMI ha vinto il premio per la tecnologia più stupida dell'universo. E ogni produttore dice quel cavolo che gli pare! Perché? Ve lo spiego partendo dalle basi!
Nel 1987 è stata inventata la connessione video più versatile della storia, la mitica VGA, la connessione analogica di maggior qualità e diffusione, nata quando i monitor al massimo erano da qualche centinaio di pixel era un grado di supportare risoluzioni assurde fino a 2560x2048px... e ripeto ancora una volta 1987, VENTICINQUE anni fa!

L'HDMI rilasciato nel 2002 ha subito ad oggi 250 milioni di modifiche e aggiornamenti, la prima versione arrivava al massimo al full hd 1920x1080 (2.07 mpx contro i 5.24 mpx del VGA) insomma una connessione che è partita con il piede sbagliato, come fa a venirti in mente di progettare una nuova tecnologia che non arriva neppure alla risoluzione di quella che dovrebbe sostituire? A stima avevano le pigne nel cervello, poi hanno fatto altri versioni, ora supporta il 1600p ma ad ogni versione, nuovi accrocchi per usarla e nuovi cavi... risultato è che dire HDMI è come dire tutto e niente, o sai le specifiche esatte dei due sistemi da connettere e del cavo oppure non saprai se funzionerà, con il VGA il problema non si poneva, collegavi ed eri certo che tutto andasse per il meglio, motivo per cui ancora oggi la VGA è largamente impiegata ovunque. Ma poi arriva il bello dell'HDMI, l'audio... i geni hanno pensato bene di mettere anche l'audio... ma se per decenni è rimasto separato ci sarà stato un motivo no? Su una tv è utile, 1 solo cavo e colleghi il decoder alla tv, ma se hai un dolby? eh, devi sperare che il tuo decoder o lettore BR abbia le uscite coassiali o ottiche, di solito se ti va bene c'è l'ottico (che è un'altra connessione idiota, più costoso e delicato del coassiale, minore possibilità di integrarlo negli impianti perché gli spinotti non sono facili da fare e la medesima qualità audio... insomma complicazione inutile) ma ormai molti decoder e BR hanno SOLO l'HDMI e quindi cosa fai? compri un altro accrocchio (ovviamente...occhio alle specifiche deve essere HDMI della versione giusta) per separare il maledetto audio dal video e paghi, quando bastava un HDMI solo video e il coassiale (rame, dannato, efficace, economico RAME alla strafacciazza del cavo ottico)... ora arriverà il 4K... preparatevi a buttare nel gabinetto cavi e accrocchi HDMI perché cambierà tutto, di nuovo, e poi arriverà il 4K in 3D e cambierà ancora! Io dico, fai un cavo nuovo? magari guarda un pelo più lontano del tuo naso prima di sbatterlo in commercio e sbandierarlo come standard anche se di standard non ha proprio un bel niente!
Il DVI? oh dio anche quello non è che sia la furbata del secolo, ce ne sono 80 tipi, la display port è la connessione più seria degli ultimi anni, per lo meno è pensata per i monitor professionali... finalmente qualcosa pensato per la qualità e per i monitor quad full hd!

Scusate l'OT ma ci voleva!

Io l'HDMI lo lascerei stare, non è una tecnologia per monitor, è una tecnologia inventata da polli e pensata per i polli lasciamolo ai televisori che è meglio! (basti pensare che alcuni idioti ignoranti han speso 60-90€ per un cavo HDMI in oro o robe del genere quando un cavo HDMI con le stesse specifiche da 4-10€ in rame fa il medesimo lavoro perché è digitale e 2 sono i casi, o funziona o non funziona senza vie di mezzo).

Cmq no, photoshop a 10bit significa solo che invia al monitor immagini a 10bit.

Messaggio modificato da riccardobucchino.com il Aug 20 2012, 02:41 PM
federico777
Messaggio: #53
QUOTE(riccardobucchino.com @ Aug 20 2012, 03:38 PM) *
é probabile, perché la display port non è molto comune, ne molto utilizzata, cmq sono molte le schede che supportano i 10 bit tramite doppio dvi dual link. Sicuramente anche ati che produce ottime schede ne vende con la display port ma IO una ati non la compro neppure sotto tortura, cosa me ne faccio di una scheda performante se poi il driver non è in grado di sfruttare la potenza? E' come un'auto con la frizione che non attacca bene, potenza il motore ne ha, ma non la manda tutta sulle ruote! Io ho avuto le mie brutte esperienze con ati e non ho intenzione di replicare l'errore.


Al di là delle tue esperienze negative, da quel che dice Reflexpro le Radeon (come le Geforce) non supporterebbero proprio i 10 bit, DisplayPort o meno, quindi per sfruttarli sembrerebbe doversi andare su schede pro come le quadro e le firepro...

F.
Seba_F80
Nikonista
Messaggio: #54
QUOTE(federico777 @ Aug 20 2012, 04:33 PM) *
Al di là delle tue esperienze negative, da quel che dice Reflexpro le Radeon (come le Geforce) non supporterebbero proprio i 10 bit, DisplayPort o meno, quindi per sfruttarli sembrerebbe doversi andare su schede pro come le quadro e le firepro...

F.


Scusa federico, forse ti stai sbagliando. Secondo quello che mi hanno risposto sul forum di AMD Radeon tutte le HD Radeon dalla serie 5000 in su supportano la modalità 10bit per la DisplayPort. Come diceva riccardobucchino, poi, le Quadro hanno stessa potenzialità di una GeForce, in quanto a potenza di calcolo, ma sono schede, mi è sembrato di capire, che nascono per applicazioni in cui devono "reggere" un carico elaborativo molto elevato continuo (24h su 24, 7gg su 7).

Io credo che ognuno possa comprare ciò che vuole ma che è uno spreco comprare una Quadro per disporre di 10bit di profondità colore.

Seb
Seba_F80
Nikonista
Messaggio: #55
QUOTE(riccardobucchino.com @ Aug 20 2012, 03:38 PM) *
é probabile, perché la display port non è molto comune, ne molto utilizzata, cmq sono molte le schede che supportano i 10 bit tramite doppio dvi dual link.
{CUT}


Però serve un monitor con doppia porta DVI ... rolleyes.gif

QUOTE(riccardobucchino.com @ Aug 20 2012, 03:38 PM) *
Io l'HDMI lo lascerei stare, non è una tecnologia per monitor, è una tecnologia inventata da polli e pensata per i polli lasciamolo ai televisori che è meglio! (basti pensare che alcuni idioti ignoranti han speso 60-90€ per un cavo HDMI in oro o robe del genere quando un cavo HDMI con le stesse specifiche da 4-10€ in rame fa il medesimo lavoro perché è digitale e 2 sono i casi, o funziona o non funziona senza vie di mezzo).

{CUT}


hmmm ... non entrando troppo nel merito della questione perchè andrei troppo OT ti dico solo che la qualità di un cavo di trasmissione, anche per segnali i "digitali" (che poi nient'altro sono che segnali analogici che producono delle opportune forme d'onda chiamati "simboli" - possono essere 0 ed 1 per la codifica binaria o ancor più simboli - pensa ad esempio alle modulazioni PSK, QSK, 16-QAM usate nella trasmissione "digitale terrestre"), si valuta anche sull'effetto di schermatura (ovvero di immunità) ai disturbi esterno (rumore).

Un cavo in oro, o altro materiale a bassa resistività, conduce meglio il segnale "utile", sicché il decoder a valle del sistema, che dovrà poi interpretare il simbolo fra la selva di simboli ad alta velocità (se segnale a larga banda) che arrivano, decodificherà meglio sorgenti affette da disturbo esterno.

Tieni conto che con tutta questa smania di Mhz e Ghz s cui si viaggia ai "tempi moderni" sono tutt'altro che poche le interferenze ed i diturbi sul simbolo. Un cavo migliore permette un trasporto migliore del segnale.
Poi nulla vieta che il sistema performi complessivamente bene col cavo che rispetti il minimo dello standard, e quindi anche da due lire rolleyes.gif
ma è solo un caso fortunato, e non può estendersi a tutte le casistiche wink.gif

Seb
federico777
Messaggio: #56
QUOTE(Seba_F80 @ Aug 20 2012, 05:01 PM) *
Scusa federico, forse ti stai sbagliando. Secondo quello che mi hanno risposto sul forum di AMD Radeon tutte le HD Radeon dalla serie 5000 in su supportano la modalità 10bit per la DisplayPort. Come diceva riccardobucchino, poi, le Quadro hanno stessa potenzialità di una GeForce, in quanto a potenza di calcolo, ma sono schede, mi è sembrato di capire, che nascono per applicazioni in cui devono "reggere" un carico elaborativo molto elevato continuo (24h su 24, 7gg su 7).

Io credo che ognuno possa comprare ciò che vuole ma che è uno spreco comprare una Quadro per disporre di 10bit di profondità colore.

Seb


Beh, può darsi che mi sbagli, d'altronde non è che abbia un parere in merito, mi limito semplicemente a prendere nota di quelli espressi dagli altri: finora Riccardo e il tizio del forum AMD dicono una cosa, Reflexpro ne dice un'altra; vorrei quindi capire chi abbia ragione biggrin.gif

Federico
Teo 46
Messaggio: #57
QUOTE(korra88 @ Aug 14 2012, 03:58 AM) *
ah guarda, mai provata un'integrata, però sul forum di hwupgrade ho letto che c'è gente che la utilizza con autocad la intel hd3/4000 e dice che se lo mangia. chiaro, non ci progetti una macchina o un palazzo, ma magari qualche cosa di semplice si fai conto che uso una ati hd2400xt che se non è come la hd4000 poco ci manca leggi anche qui..dice che va bene sia lightroom che photoshop

http://forums.adobe.com/message/4440539

l'ssd serve per aprire photoshop ed i raw supermegavelocissimamente ed anche qui la differenza c'è..io ho un 5200rpm e la differenza è a dir poco abissale rispetto ad un mio amico che usa l'ssd ti giuro che mi passa la voglia quando devo lavorare un centinaio di foto se non di più.

a settembre mi rifaccio il pc visto che il mio povero portatile di quasi 5 anni, ormai non vede l'ora di essere pensionato . vengo da un acer travelmate 5720 con il T8300 (2,4ghz dual core), 4gb ddr2 667mhz, hd2400xt, 250gb 5200rpm. ed ho deciso di farlo cosi:

i7 3770k
scheda madre msi MSI Z77A-G43
ram 16gb corsair vengeance 1600mhz CL 10-10-10-27
hd 1tb western digital caviar green per storage
S.o e programmi ssd samsung 830 256gb
alimentatore OCZ 600MXSP ModXStream Pro
case coolermaster silencio 550
la scheda video è un incognita, perchè voglio vedere prima come va la integrata intel hd4000. se si mangia photoshop e lightroom come dice il tipo sopra, anche con i raw della d800, allora aspetto a comprarla e intanto uso quella. cosi utilizzo i 250€ destinati alla scheda video alla intuos5 M. altrimenti se va da schifo, prendo la ati 7850 2gb OC, cosi ci posso pure giocare prezzo 1100€ tondi sia che scelgo intuos5 oppure l'ati ed è una bella bestiolina.


su hwupgrade c'è ancora gente convinta che le marmotte confezionino la cioccolata... il problema di quel sito è che come testata giornalistica ha perso tantissimo, come amministrazione e moderazione è meglio non averci nulla a che fare (in confronto un dittatore è più elastico mentalmente), e il forum si divide tra elementi ESTREMAMENTE competenti ed elementi estremamente incompetenti (soprattutto giovanissimi che per sentirsi integrati dispensano consigli a destra e a manca...anche se palesemente errati). Conosco gente che diceva di giocare bene a Crysis con una scheda video di fascia bassa...poi una volta che gli ho fatto provare il mio pc hanno capito che effettivamente nel loro il gioco scattava...
Io credo che il problema sia più o meno quello...se devi lavorare in cad seriamente la differenza tra una integrata con una discreta la noti! Se invece devi fare qualcosa di banale allora le differenze sono minime (così come non ti accorgeresti di guidare una ferrari se dovessi percorrere 10km di rettilineo ai 30km/h).
Poi paragoni un hd da 5400rpm con un ssd.. laugh.gif come paragonare una carrozza trainata da un cavallo ad un F-16 laugh.gif
Io sul portatile ho un hd ibrido da 7200rpm con 4gb di memoria flash e posso dirti che rispetto al 5400rpm che c'era prima è tutt'altra storia. Figurati con un ssd!
Comunque ripeto... un raw di una d800 cosa pesa? 80 mega? Un Hd da 5400rpm potrebbe leggere mediamente a 40mega al secondo...quindi in circa 2 secondi l'avresti aperta..con un disco da 7200 giri superi i 70 mega al secondo facilmente... quindi ci metteresti circa un secondo.. con un ssd (se hai un sata 2) vai a circa 200-250 mega al secondo.. quindi la apriresti in circa 0.33s. A livello numerico la differenza è notevole..ma a livello pratico magari lo è un po' meno! (inoltre considera che se hai raw da 20 mega, i tempi sono da dividere per 4... quindi tra 7200rpm e ssd avresti una differenza tra 0.25s e 0.08s...aggiungendo il seek time..direi che cmq la noteresti "poco"...)
In ogni caso 250€ di scheda video spendili SOLO se vuoi giocare (e bene)! Per un buon uso generico (gioco casual e altre elaborazioni varie) non andrei sopra i 100-120€!

QUOTE(Seba_F80 @ Aug 14 2012, 01:17 PM) *
Ho pensato possa essere utile. E' in inglese ma spiega molte cose. Le librerie adoperate per interagire direttamente con la GPU sembrano le Open GL, non le DirectX

http://helpx.adobe.com/photoshop/kb/gpu-op...4.html#main_FAQ

Le Direct X le ho tirate in causa per descrivere un periodo di tempo (pre dx9).. se avessi detto ai tempi della geforce 3 ti 500 o della tnt2, magari in pochi mi avrebbero capito laugh.gif
In ogni caso è "normale" che un software multipiattaforma utilizzi le opengl, visto che le directx sono proprietarie di microsoft...
riccardobucchino.com
Messaggio: #58
QUOTE(Seba_F80 @ Aug 20 2012, 05:12 PM) *
Però serve un monitor con doppia porta DVI ... rolleyes.gif
hmmm ... non entrando troppo nel merito della questione perchè andrei troppo OT ti dico solo che la qualità di un cavo di trasmissione, anche per segnali i "digitali" (che poi nient'altro sono che segnali analogici che producono delle opportune forme d'onda chiamati "simboli" - possono essere 0 ed 1 per la codifica binaria o ancor più simboli - pensa ad esempio alle modulazioni PSK, QSK, 16-QAM usate nella trasmissione "digitale terrestre"), si valuta anche sull'effetto di schermatura (ovvero di immunità) ai disturbi esterno (rumore).

Un cavo in oro, o altro materiale a bassa resistività, conduce meglio il segnale "utile", sicché il decoder a valle del sistema, che dovrà poi interpretare il simbolo fra la selva di simboli ad alta velocità (se segnale a larga banda) che arrivano, decodificherà meglio sorgenti affette da disturbo esterno.

Tieni conto che con tutta questa smania di Mhz e Ghz s cui si viaggia ai "tempi moderni" sono tutt'altro che poche le interferenze ed i diturbi sul simbolo. Un cavo migliore permette un trasporto migliore del segnale.
Poi nulla vieta che il sistema performi complessivamente bene col cavo che rispetti il minimo dello standard, e quindi anche da due lire rolleyes.gif
ma è solo un caso fortunato, e non può estendersi a tutte le casistiche wink.gif

Seb


certo che se la tv la tieni tra due elettromagneti da 1 megawatt l'uno le interferenze distruggono il segnale ma in condizioni normali non succede e poi se in analogico ci sono disturbi si vede male, se in digitale ci sono disturbi scatta o ci sono disturbi molto evidenti oppure nella maggior parte dei casi non vedi nulla, in quel caso devi cambiare cavo altrimenti no. chi compra un cavo da 90€ senza avee provato quelli da 5 è un pollo!

Messaggio modificato da riccardobucchino.com il Aug 21 2012, 01:39 AM
Seba_F80
Nikonista
Messaggio: #59
QUOTE(riccardobucchino.com @ Aug 21 2012, 02:37 AM) *
{CUT}
chi compra un cavo da 90€ senza avee provato quelli da 5 è un pollo!


I fully agree rolleyes.gif ovvio, bisogna andar per gradi, non comprare una ruspa per piantare un chiodo per appendere un quadro in salone biggrin.gif
Utente cancellato
DEREGISTRATO
Messaggio: #60
uppete! riuppo che mi devo leggere il topic smile.gif
Utente cancellato
DEREGISTRATO
Messaggio: #61
testata la hd4000 dell'intel del i7 3770k..photoshoppete, illustrator e laitrùmm' se li mangia a colazione messicano.gif

le zoomate sono fluide e non c'è lag di nessun genere. illustrator puoi pennellare quanto ti pare..l'unica è se usi il filtro 3d che ti crea l'oggetto 3d..se molto complesso te lo muove a scatti. lightroom zoom e modifiche alla foto fluidissime. smile.gif
murfil
Messaggio: #62
scusate se torno sull'argomento (ma sono proprio capra in materia). Riassumendo per i 10 bit per coanale colore servono monitor, scheda video con display port o doppia dvi e pure il software che lo sopporti.. ma se ho capito bene solo photoshop CS supporta l'uscita a 10 bit, quindi se invece dovessi usare capture, Lightroom 3.6 o 4, viewnx o elements, anche avessi tutto il resto a 10 bit non mi servirebbe a molto?
Chiedo perchè sono molto indecisa per la scheda video (per il monitor credo andrò di asus) tra amd radeon hd 7770 e nvidia GTx450, anche in considerazione che mi deve andare in dual boot con ubuntu (che con le ati ha meno feeling) anche se sotto linux lo userei solo per navigare, documenti, mentre la parte fotografica la gestirei sotto wind 7 o 8.
Grazie a chiunque risponda smile.gif
Utente cancellato
DEREGISTRATO
Messaggio: #63
QUOTE(Teo 46 @ Aug 20 2012, 10:57 PM) *
su hwupgrade c'è ancora gente convinta che le marmotte confezionino la cioccolata... il problema di quel sito è che come testata giornalistica ha perso tantissimo, come amministrazione e moderazione è meglio non averci nulla a che fare (in confronto un dittatore è più elastico mentalmente), e il forum si divide tra elementi ESTREMAMENTE competenti ed elementi estremamente incompetenti (soprattutto giovanissimi che per sentirsi integrati dispensano consigli a destra e a manca...anche se palesemente errati). Conosco gente che diceva di giocare bene a Crysis con una scheda video di fascia bassa...poi una volta che gli ho fatto provare il mio pc hanno capito che effettivamente nel loro il gioco scattava...
Io credo che il problema sia più o meno quello...se devi lavorare in cad seriamente la differenza tra una integrata con una discreta la noti! Se invece devi fare qualcosa di banale allora le differenze sono minime (così come non ti accorgeresti di guidare una ferrari se dovessi percorrere 10km di rettilineo ai 30km/h).
Poi paragoni un hd da 5400rpm con un ssd.. laugh.gif come paragonare una carrozza trainata da un cavallo ad un F-16 laugh.gif
Io sul portatile ho un hd ibrido da 7200rpm con 4gb di memoria flash e posso dirti che rispetto al 5400rpm che c'era prima è tutt'altra storia. Figurati con un ssd!
Comunque ripeto... un raw di una d800 cosa pesa? 80 mega? Un Hd da 5400rpm potrebbe leggere mediamente a 40mega al secondo...quindi in circa 2 secondi l'avresti aperta..con un disco da 7200 giri superi i 70 mega al secondo facilmente... quindi ci metteresti circa un secondo.. con un ssd (se hai un sata 2) vai a circa 200-250 mega al secondo.. quindi la apriresti in circa 0.33s. A livello numerico la differenza è notevole..ma a livello pratico magari lo è un po' meno! (inoltre considera che se hai raw da 20 mega, i tempi sono da dividere per 4... quindi tra 7200rpm e ssd avresti una differenza tra 0.25s e 0.08s...aggiungendo il seek time..direi che cmq la noteresti "poco"...)
In ogni caso 250€ di scheda video spendili SOLO se vuoi giocare (e bene)! Per un buon uso generico (gioco casual e altre elaborazioni varie) non andrei sopra i 100-120€!

l'ho visto solo ora che mi hai risposto. aahahahah sto morendo con sta frase laugh.gif
concordo su hwupgrade smile.gif

qualcuno ha provato a collegare una nvidia serie 600 o una ati hd 5-6-7000 per vedere se realmente va a 10bit canale?

Messaggio modificato da korra88 il Sep 4 2012, 03:04 PM
m1rc23
Iscritto
Messaggio: #64
QUOTE(riccardobucchino.com @ Aug 17 2012, 09:36 PM) *
oh dio il discorso è complicato.

La visualizzazione è una cosa, il file è un'altra!

I 16 bit del file sono informazioni colore che ci sono nel file, nessun monitor può mostrartele al massimo arrivano a 10, a 32 bit ancora peggio, non le vedi queste informazioni. A cosa servono questi dati "invisibili"? Servono per fare modifiche alle immagini, te la spiego a spanne. Quando guardi una foto a 16 bit su un monitor normale vedi 8 dei 16 bit e queli 8 bit sono quelli che esporterai in sRGB o AdobeRGB (per vedere tutta la gamma colori dell'adobe devi avere un monitor wide gamut) tu con le modifiche che fai alla foto puoi per esempio aumentando la luminosità con l'esposizione far apparire dei dati nascosti ma ovviamente se "sposti" l'area che esporterai in srgb verso le ombre perderai le alte luci, ovviamente con comandi come luci e ombre puoi andare a recuperare e quindi visualizzare informazioni aggiuntive sia sulle luci che sulle ombre.

Lo stesso discorso si può fare paragonando srgb con altri sistemi migliori, dando per assodati il fatto che se vuoi pubblicare su internet DEVI usare sRGB pena colori smorti. Se esporti in adobe rgb e visualizzi in sRGB i colori diventano tutti smorti e avranno dei viraggi, più è grande il gamut dello spazio colore che usi e peggio si vedrà l'immagine se la apri con un "player" come internet che non supporta tale spazio colore. Il motivo è semplice e complicato al tempo stesso e scrivendo non riesco a spiegartelo, ho bisogno di carta e di tante parole. Però so spiegarti perché lavorare in pro photo ed esportare in Srgb e non lavorare direttamente in Srgb. Se lavori in rgb e fai una modifica ad esempio aumenti la saturazione alcuni colori che già erano vicini alla massima saturazione diventano saturi al 100% e quindi perdi informazioni se torni indietro togliendo saturazione avrai perso definitivamente alcune sfumature, se lo fai in prophoto lo spazio colore è enorme e quindi la variazione fa uscire i colori dallo spazio che vedi ma l'informazione c'è, è solo non visibile, se torni ad abbassare la saturazione le info su quei colori che avevi spostato oltre il visibile tornano dentro e non si creano mezzanature. Hai capito? suppongo di no, non mi so spiegare bene su sti argomenti ostici! La cosa che mi preme è solo che tutti imparino che la scheda video non conta nulla di nulla, risparmiate sulla VGA e comprate un calibratore, risparmiate sulla VGA e comprate un monitor più bello.... 2 cose che dovrei comprare anche io per altro, ma io mi conosco e non posso comprare qualcosa di accettabile, io quando compro, compro il meglio (Nikonista mica per caso!).

La display port è una porta simile all'usb ma con un angolino tagliato a 45°, è diversa dal DVI e porta il doppio delle informazioni, ci vogliono 2 DVI per portare 1 segnale a 10 bit/canale, basta 1 display port per i 10 bit.

Occhio ad una cosa, se comprate un monitor wide gamut e non lo calibrate con il calibratore vedrete colori peggiori e avrete minore fedeltà nella stampa e in tutto rispetto ad un monitor sRGB, perchè se un monitor con poco gamut può sbagliare poco e avere pochi viraggi un monitor wide gamut avendo maggiori possibilità di mostrare colori ha più probabilità di fornire immagini con errori lapalissiani.

Un mio amico ha fatto una presentazione per spiegare un po' di ste cose, forse da lui capisci meglio. Dovresti trovare i file qui

guarda l'avrai scritto 3 anni fa ma non sai quanto è attuale! io sto proprio ora cercando di capire che monitor adobe-rgb comprare e quale hardwere per farlo lavorare al meglio , è stata un'escaletion asus 279q poi dell u2713h poi eizo cs 240, ecco quest'ultimo è il massimo che mi posso permettere economicamente ma è più piccolo degli altri. il punto è che dice addirittura avere un ingresso di 16bit??? e come ce li mando? io pensavo di prendere una quadro k620 , va bene? sul noto forum di cui parlavate mi hanno consigliato una configurazione strana , cioè con 2 shede video una adm r9 380 4gb per usare l'openCL e una quadro 420 da usare solo come vga. tu che ne pensi? sia dei monitor che della soluzione dual gpu???
giuliocirillo
Messaggio: #65
QUOTE(m1rc23 @ Sep 12 2015, 09:16 PM) *
guarda l'avrai scritto 3 anni fa ma non sai quanto è attuale! io sto proprio ora cercando di capire che monitor adobe-rgb comprare e quale hardwere per farlo lavorare al meglio , è stata un'escaletion asus 279q poi dell u2713h poi eizo cs 240, ecco quest'ultimo è il massimo che mi posso permettere economicamente ma è più piccolo degli altri. il punto è che dice addirittura avere un ingresso di 16bit??? e come ce li mando? io pensavo di prendere una quadro k620 , va bene? sul noto forum di cui parlavate mi hanno consigliato una configurazione strana , cioè con 2 shede video una adm r9 380 4gb per usare l'openCL e una quadro 420 da usare solo come vga. tu che ne pensi? sia dei monitor che della soluzione dual gpu???


Guarda se puoi prendere un CS240 prendilo ad occhi chiusi....si è un 24" ma è di una qualità che gli altri due che hai menzionato se la scordano.....e questo anche se lo colleghi ad una scheda video da 20 euro.......
L'unica cosa che possa far scegliere una scheda video rispetto ad un altra è sfruttare i 10bit, visto che tale monitor li supporta.......
Ma tenete presente che un ottimo monitor rimane ottimo....a prescindere da che scheda video usi o da che tipo di collegamento sfrutti........

ciao

PS: non ha nessun ingresso a 16 bit........a 16 bit ha la LUT......

Messaggio modificato da giuliocirillo il Sep 13 2015, 12:36 AM
m1rc23
Iscritto
Messaggio: #66
QUOTE(giuliocirillo @ Sep 13 2015, 01:33 AM) *
Guarda se puoi prendere un CS240 prendilo ad occhi chiusi....si è un 24" ma è di una qualità che gli altri due che hai menzionato se la scordano.....e questo anche se lo colleghi ad una scheda video da 20 euro.......
L'unica cosa che possa far scegliere una scheda video rispetto ad un altra è sfruttare i 10bit, visto che tale monitor li supporta.......
Ma tenete presente che un ottimo monitor rimane ottimo....a prescindere da che scheda video usi o da che tipo di collegamento sfrutti........

ciao

PS: non ha nessun ingresso a 16 bit........a 16 bit ha la LUT......


grazie 1000, ora vado a capire cosa sia la lut biggrin.gif , comunque cosa ne pensi di questo fatto di accoppiare una quadroe (solo per 10bit displayport) una redeon r9 380 (per sfruttare accelerazione opencl di photoshop)?! cioè è una cosa realistica o mi vogliono far spendere d più e poi LA DIFFERENZA IN FASE FASE DI CALCOLO NEANCHE LA VEDO.
Cioè mi pare di capire qui che renderebbe photoshop solamente più fluido, ma che in realtà non è che girerebbe meglio. certo io ho una d800 e lavorare i nef sono pesantini , ma riesco per ora anche col netbook di 5 anni fa dopo che ci ho messo dentro un ssd nuovo di pacca però, prima si imapallava di brutto in fase di salvataggio però.
grazie ancora della disponibilità, fammi sapere.
Riccardo_A
Messaggio: #67
Proprio sabato ho acquistato un'Asus Geoforce GT640 2GB, per attivare le funzioni GL sul LR6.
L'HW grafico già presente sulla ascheda madre Intel andava in GL con il LR5, con il 6 no.
In pratica, con immagini NEF a 16M, la Geoforce accelera solo la velocità di generazione dei dettagli durante gli zoom.
Si passa da 2-3 secondi ad 1.
Detto questo, ho letto oggi casualmente la presente discussione che mi ha fatto venire la curiosità sulle specifiche della scheda.
Ho cercato quindi sul sito Asus e su quello Nvidia, ma inutilmente.
Non trovavo mica quanti bit colore ha le GT640.
Nelle specifiche ci sono solo informazioni (pippe) destinate a chi la usa per giochi. Ovvero, a cosa s'attacca e quanto corre più delle altre....
Stavo per maledirli, poi per caso ho trovato questo:
http://nvidia.custhelp.com/app/answers/det...ia-geforce-gpus
Sembra quindi che la gran parte delle Geoforce supporti i 10 bit per colore.
Ciao a tutti
Riccardo

Messaggio modificato da Riccardo_A il Sep 13 2015, 10:41 PM
Riccardo_A
Messaggio: #68
Però leggendo fino in fondo, trovo che per i SW professionali (Adobe incluso) serve anche l'uscita Displayport.
Che non è presente sulle Geoforce, ma solo sulle Quadro.
Ho capito bene ?
Saluti a tutti
Riccardo
m1rc23
Iscritto
Messaggio: #69
si praticamente solo le quadro e le firepro hanno una uscita 10bit displayport che lavora effetivamente a 10bit con i programmi professionali. Infatti il tecnico pc mi ha detto in pratica che la quadro che andrei a montare io non serve altro che far comunicare il pc al monitor 10bit , percò che poi il lavoro di calcolo lo fa l'altra scheda grafica che vuole montare ossia la redeon r9 380 4gb ddr5. Il punto è che mi pare un accrocco però secondo lui funziona. bo?! sono schede di marchi diversi quindi non comunicano tra di loro, ma credo che la quadro sia di fatto "mutilata" da qualche impostazione interna tanto da non farla di fatto attivare, ma gestisce solo il "traffico" in uscita verso il monitor. A questo punto non posso solo sperare che su hwupgrade ho trovato una persona moto competente (30000 messaggi , o è uno forte o è uno che non sa che fare celsios100) e non quello che vuole a tutti i costi dare consigli a c...o. ti mando il link della discussione così se vuoi prendi ispirazione:
http://www.hwupgrade.it/forum/showthread.p...2140&page=4
praticamente il secondo pc proposto sarebbe il mio.
Riccardo_A
Messaggio: #70
Ok grazie.
Ma non era più semplice prendere una sola Quadro, di taglia adeguata ?
Ciao
m1rc23
Iscritto
Messaggio: #71
è magari solo che costano un botto , tra l'altro non sono assolutamente più potenti di una r9 anzi!!! molto meno sono solo mooooolto più affidabili.
la differenza tra quadro e gaming non è nel processore che è lo stesso, le gaming sono più recenti e potenti, ma solo in tutto il resto che determina la maggiore affidabilta delle pro rispetto al gaming.
cmq ho trovato anche questo:
https://www.pugetsystems.com/labs/articles/...celeration-161/
Riccardo_A
Messaggio: #72
Mi sembra che l'articolo non tratti il problema dei 10 bit colore.
Comunque se avessi saputo prima di questa storia, forse avrei preso una Quadro K620.
Detto ciò, siccome uso ancora un Eizo Flexscan T765 in VGA, tiro avanti con la Geoforce e risparmio.
In futuro quando sarò costretto a cambiar monitor, deciderò il da farsi.
Ciao
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
3 Pagine: V  < 1 2 3