View Single Post
Old 15-07-2014, 15:49   #1178
Luca72c
Senior Member
 
Iscritto dal: May 2010
Messaggi: 815
Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Beh, io ero sicuro. Non ho mai detto di essere infallibile eh?
Se non mi porti dati che mi sbaglio o non me li cerco io che ne so che mi sbaglio?
Beh, per esempio potresti prendere un po' più in considerazione i pareri delle altre persone, cioè tenere sempre presente che puoi anche sbagliare, nonostante tutta 'sta cura per i dati - il che dimostra che non è SOLO portando dati che si può sostenere un'argomentazione: i dati magari si possono andare a cercare dopo per dimostrare le proprie argomentazioni.
Ti consiglio di non fare il GRAVISSIMO errore di pensare che tutto 'sto continuo riferimento ai dati ti protegga dal commettere errori: c'è sempre una componente umana che porta a sbagliare. In questo caso, ad esempio, non avevi aggiornato i dati che avevi raccolto mesi (o anni) prima, oppure ti eri limitato a dati incompleti.
Tra l'altro se segui la nostra discussione dall'inizio noterai che i miei ragionamenti, che portavano a immaginare che dovessero esistere schede consumer dal consumo inferiore a 20W, erano perfettamente logici e partivano da osservazioni pratiche e dirette. Quello che sostenevi tu non poteva essere.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Dimostrazione dove? Non ci sono bench per quelle schede ed assumere che consumino meno sulla base di speculazioni è rischioso.
La dimostrazione è che ci sono prodotti consumer che consumano meno di 20W, nelle tue affermazioni non ti limitavi mica a QUELLE schede, parlavi di TUTTE le schede consumer (tra cui, ovviamente, anche quelle che poi hai scoperto consumare 5W).
Inoltre rischioso è anche non prendere in considerazione una scheda solo perchè non ci sono dati: non vuol dire automaticamente che certe prestazioni non le abbia, solo perchè dati non se ne trovano. Bisogna essere possibilisti ed elastici, senza ovviamente dare nulla per scontato o sicuro quando non lo è.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
anche le porte coi pin (che ci devi connettere il cavo) consumano, e quando la maggioranza delle schede ha 10-20 porte usb 2 e 4-6 USB 3 quelli sono 3-4 watt.
Se hai studiato un minimo di elettrotecnica capirai che il consumo di una porta coi pin a cui non è collegato niente è talmente risibile da essere trascurabile (in condizioni normali, cioè senza cortocircuiti). Nemmeno in 10 arriverebbero a consumare 1W.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Mentre la tua consuma 22 ma costa il quadruplo. Ho come l'impressione che con la differenza di prezzo ci paghi la differenza di consumo per 10 anni.
Chi te l'ha detto che costa il quadruplo? Ti ho detto che l'ho pagata 60 euro. Sveglia eh!
Tra l'altro non le puoi nemmeno paragonare perchè la potenza è NOTEVOLMENTE diversa, sulla mia ci posso installare un i7, su quelle nemmeno un i3.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Mai visti tu? Io no.
Io ne ho avuti un paio che mi facevano penare l'i7-3770

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Stai scherzando vero? Coi dispositivi mobili che DOMINANO il mercato consumer per quanto riguarda i media, la maggioranza dei file nuovi sta seguendo regole più rigide.
5 anni fa era peggio, molto peggio.
Sarà, ma io fino all'anno scorso non avevo mai avuto problemi (infatti sostenevo che l'E350 non aveva problemi col 1080p), invece ultimamente di files così me ne stanno capitando sempre di più.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Cosa hai letto esattamente?
I programmi di ricodifica scomprimono il file originario (sempre codificato lossy) e ricomprimono a livello lossy richiesto.
Con handbrake o con programmi di ricodifica seri la scelgo io la qualità di codifica, e non è una cosa guidata per profani (alta/media/bassa) ma col valore numerico usato dal codec per determinare il livello di compressione.
Quindi no, non perdo qualità se non sono io a volerlo (o sbagliarmi). Devi solo capire a che livello di compressione (lossy) è la fonte e impostare lo stesso o leggermente superiore.
è sempre tecnicamente lossy, ma perdo cose che non c'erano neanche nell'originale (che è lossy anch'esso).
Il "vero" lossless è il raw che vien preso su dalle telecamere digitali serie, e occupa centinaia di GB per mezzora di materiale o giù di lì. Non esistono file del genere fuori da PC impiegati in produzione audio-video perchè non c'è modo di distribuirli con quelle dimensioni.
Per dire, posso anche decidere di ricodificare a un livello di qualità superiore rispetto alla fonte (che ovviamente fa venire un file più grosso, ma essendo la fonte ad una certa qualità essa non aumenta magicamente, sto solo sbattendo via spazio per niente)
Attenzione eh! Qui parliamo di matematica, non di mortadella! Non so come ma ti sei fatto un'idea completamente sbagliata, tu che sei tanto preciso sui dati.
Non ho letto proprio niente in giro, ho solo studiato Informatica all'Università e lì mi hanno insegnato come funzionano le matrici per la visualizzazione a schermo e la loro archiviazione su file.
Quando comprimi un file la prima volta hai perso delle informazioni che non potrai MAI PIU' riavere, perchè nel file non ci sono più. Quando lo decodifichi, i fotogrammi vengono ricostruiti dal PC uno ad uno nella matrice completa, che è MOLTO PIU' GRANDE della dimensione nel file perchè alcuni pixel vengono ricalcolati secondo algoritmi - però le informazioni mancanti rimangono mancanti: sono solo interpolate. Quando rivado a comprimere, QUALSIASI sia il livello di compressione (quindi anche superiore a quello di origine), vado PER FORZA a togliere delle ulteriori informazioni, perchè la dimensione del file è COMUNQUE e DI GRAN LUNGA inferiore alla somma delle dimensioni delle matrici dei singoli fotogrammi. Ripeto: QUALUNQUE sia il livello di compressione, è SEMPRE una ulteriore compressione delle informazioni (già incomplete) presenti nel file di partenza. Ciò vuol dire che se tu parti da un file di 700Mb, lo apri e lo ricomprimi con un bitrate molto alto ottenendo un file da 3Gb, HAI COMUNQUE DEGRADATO LA QUALITA' VIDEO, perchè hai comunque perso informazioni nella compressione. Non perdi solo cose che erano già mancanti nell'originale (come dici tu), ma anche ALTRE cose, perchè il filmato decompresso già è incompleto e tu lo vai a decurtare ulteriormente di informazioni (cosa che fa ogni passaggio di compressione lossy).
Ti faccio un esempio: mettiamo (con un po' di fantasia) che un tipo di compressione introduce un po' di squadrettamento di pixel in una sequenza, che nell'originale non c'era. Quando tu decodifichi il file, avrai un filmato con un po' di squadrettamento, tanto di più tanto maggiore è il livello di compressione che hai usato. Quando lo vai a ricomprimere, siccome parti da un filmato che GIA' HA UN PO' DI SQUADRETTAMENTO, con la compressione ulteriore AGGIUNGERAI dell'altro squadrettamento a quello che già c'è, magari molto poco se usi un bitrate molto alto, ma comunque SEMPRE UN PO', per quanto pochissimo, perchè quell'algoritmo di compressione è fatto così, introduce lo squadrettamento per risparmiare spazio nel file. Ma attenzione: risparmiare NON rispetto al file di partenza (che magari può essere anche più piccolo), ma rispetto al video DECODIFICATO, di cui il PC NON SA che contiene squadrettamento, pensa sia un video originale a piena definizione che è proprio così in origine (poichè avendolo decodificato lui ha una lista di frames ricostruiti tutti completi), e tale video una volta decodificato pur contenendo già squadrettamento è comunque MOLTO più grande di qualunque file tu possa ottenere con qualsiasi livello di compressione. Infatti se tale video fosse riportato in un file come sequenza di fotogrammi completi, avremmo 1920x1080 pixels, x almeno 3 bytes per il colore di ogni singolo pixel, x 25 fotogrammi al secondo, x 7200 immaginando che duri due ore.
Hai fatto il conto? ti rendi conto che dimensione verrebbe fuori? Ecco perchè si usa la compressione. Ma attenzione: come sto tentando di farti capire, una volta decodificati sia il file originale che quello compresso OCCUPANO LO STESSO SPAZIO, solo che il file originale nei fotogrammi avrà tutti i pixel diversi, quello compresso avrà blocchi di pixel uguali, a causa della compressione.
Per cui ogni volta che comprimi un video con un codec lossy e il file viene tanto più piccolo di quella cifra (fosse anche 10Gb), hai perso informazioni ULTERIORMENTE.
Credimi, è un po' difficile da spiegare in un post, ma ti assicuro che è così: chiedi pure ad un laureato in Informatica.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Beh, da un'incauto divrozierei anch'io se non ha altre qualità per compensarlo.
Se te lo fai dare il giorno prima e fai una prova test da solo, durante la notte puoi fare una ricodifica come si deve. Se non vuoi perdere qualità e la fonte non è un DVD a 720p demmierdas col cavolo che ci vuole mezzora, io ci metto 2-3 ore con un i7 3770k (no OC) a fare un film in 1080p come si deve.
Ti pare facile a te, ma tu sei celibe? Sai benissimo che non sempre si può fare quello che dici e anche quando si può fare è uno sbattimento che chi non capisce niente di queste cose difficilmente è disposto a sopportare. Ti dice: ma come mai col videoregistratore si vedeva sempre bene tutto? Ma com'è che 'sto coso non funziona bene? A mio fratello/cugino/amico/cane si vede sempre tutto bene e non ha tutti 'sti problemi...
N.B. Non ti preoccupare che io compenso benissimo certe mancanze tecniche, ma sono comunque un fastidio.

Quote:
Originariamente inviato da bobafetthotmail Guarda i messaggi
Che è sempre XBMC, interfaccia uguale su tutte le piattaforme. Sai usarlo su PC? sai usarlo anche su Mac, Android, Linux, IOS.
A parte i primi 10 minuti che lo installi (procedura completamente automatica) e connetti il dispositivo al wifi o alla rete, Android non lo vedi più e diventa una "chiavetta XBMC".
Non è proprio esattamente così, ma comunque se uno Android non lo vuole vedere evidentemente non è pronto ad accettare nemmeno quei primi 10 minuti. Alla fine si potrebbe dire lo stesso di quasi tutte le app multimediali per Android, ma rimane il fatto che stai lavorando su un dispositivo Android.
E poi vuoi mettere con un htpc Windows che puoi utilizzare per fare mille altre cose al di fuori di XBMC, senza mettere ovviamente mano su Android?

Ultima modifica di Luca72c : 16-07-2014 alle 13:49.
Luca72c è offline   Rispondi citando il messaggio o parte di esso