Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Scienza e tecnica (https://www.hwupgrade.it/forum/forumdisplay.php?f=91)
-   -   [archeologia] Preservazione virtuale dei monumenti (https://www.hwupgrade.it/forum/showthread.php?t=2820044)


jumpjack 01-09-2017 13:42

Quote:

Originariamente inviato da zappy (Messaggio 44985692)
per lo scoglio son foto tue dalla spiaggia e per amatrice hai estratto i fotogrammi da un volo?

sì esatto.

jumpjack 22-09-2017 09:27

Ahimè, sta per finire la pacchia: Autodesk Remake funzionerà solo fino al 30 novembre, dopodichè verrà disabilitata la funzione di elaborazione su cloud e il programma verrà sostituito da Autodesk Recap Photo, a pagamento, a partire da 40 dollari al mese!!!
Recap Photo funzionerà esclusivamente online... il che lascia supporre che probabilmente sarà comunque possibile continuare a usare Remake offline; ergo, sbrigatevi a scaricarlo! (sempre che il download sia ancora disponibile!)
Ma tenete presente che i requisiti minimi di sistema sono 16 GB di RAM e una scheda video nVidia.

Comunque esiste già anche il freeware 3df Zephyr, e anche per cellulare stanno comparendo diverse app.

https://knowledge.autodesk.com/suppo...Questions.html

zappy 22-09-2017 09:37

Quote:

Originariamente inviato da jumpjack (Messaggio 45039905)
Ahimè, sta per finire la pacchia: Autodesk Remake funzionerà solo fino al 30 novembre, dopodichè verrà disabilitata la funzione di elaborazione su cloud e il programma verrà sostituito da Autodesk Recap Photo, a pagamento, a partire da 40 dollari al mese!!!
Recap Photo funzionerà esclusivamente online... il che lascia supporre che probabilmente sarà comunque possibile continuare a usare Remake offline; ergo, sbrigatevi a scaricarlo! (sempre che il download sia ancora disponibile!)
Ma tenete presente che i requisiti minimi di sistema sono 16 GB di RAM e una scheda video nVidia.

Comunque esiste già anche il freeware 3df Zephyr, e anche per cellulare stanno comparendo diverse app.

https://knowledge.autodesk.com/suppo...Questions.html

È quel che succede ad affidarsi a prodotti closed. Prima gratis o poco prezzo, per conquistare il mercato, Una volta che impari ad usarlo ed apprezzi (ed hai fatto il beta tester) ti salutano e devi sborsare un rene... :(

jumpjack 05-10-2017 09:53

Autodesk Remake ci ha lasciato, così ho iniziato a fare esperimenti con 3DF Zephyr, di cui è ancora possibile utilizzare la versione gratuita, che accetta solo un massimo di 50 foto (come la ex versione free di ReMake) e funziona offline.
I risultati non sono male: pur avendo impostato la risoluzione minima, per non sovraccaricare il mio povero dual core con soli 4 GB (ma gli sto preparando un regalino :) ), ho ottenuto un modello 3d paragonabile a quello ottenuto con ReMake, usando la stessa base di foto: circa 50, di cui 3DF ne ha scartate 15 (per motivi che non so).

Questa volta, invece di fare un'elaborazione unica, ho proceduto per step, per non perdere il lavoro in caso di crash: nuvola di punti approssimativa ("sparse"), nuvola precisa ("dense"), mesh e infine mesh con texture.
Interessante il fatto che l'elaborazione stavolta sia durata solo un paio d'ore invece che 3 giorni come la volta scorsa (quando però avevo impostato la risoluzione massima).

Fontana "Tevere", a Roma, gruppo "Quattro fontane":

Versione Remake

Versione 3DF

Intanto ho scoperto anche un software open e multipiattaforma, ma devo ancora provarlo: si chiama Regard3D.

La parola chiave da ricercare è, oltre a "fotogrammetria automatica" e cose simili, anche "structure from motion", "SFM".
Tempo fa avevo trovato un programma cercando in questa categoria, e ne trovai uno che dava come risultato una manciata di puntini e i punti di osservazione della telecamera, e l'ho scartato come "inutile", ma poi, facendo la suddetta prova con 3DF, ho scoperto che al primo passaggio la nuvola di punti "sparse" creata è molto simile a quella prodotta dal programma di SFM! Quindi forse avevo solo interrotto l'elaborazione troppo presto... o forse il SW era ancora troppo acerbo, non so.
Da indagare.

Un altro studio che ho fatto è la possibilità di usare foto a 360° per fare ricostruzioni 3d.
Oltre a "ottenere" che un tizio creasse (per me?!?) uno script per Imagemagick che estrae singole immagini piane da una sferica , ho anche trovato una ricerca (italiana) che spiega come sia effettivamente possibile ricostruire l'interno di una stanza usando una decina di foto a 360° con pochissimo sforzo dell'utente:
https://www.int-arch-photogramm-remo...W3-85-2017.pdf

zappy 05-10-2017 15:46

Quote:

Originariamente inviato da jumpjack (Messaggio 45072929)
...Interessante il fatto che l'elaborazione stavolta sia durata solo un paio d'ore invece che 3 giorni come la volta scorsa (quando però avevo impostato la risoluzione massima).

ottimo!

Quote:

Intanto ho scoperto anche un software open e multipiattaforma, ma devo ancora provarlo: si chiama Regard3D.

La parola chiave da ricercare è, oltre a "fotogrammetria automatica" e cose simili, anche "structure from motion", "SFM".
e pure questo :yeah:

jumpjack 06-10-2017 09:18

Ho dato in pasto a Regard3d il solito pacco di 50 foto della fontana Tevere.
Si è bloccato il PC, non funziona manco il mouse, e dopo 3 ore sta ancora al 30% dell'elaborazione.... :(
Purtroppo non mi ha dato la possibilità di scegliere la risoluzione desiderata o altre opzioni... ha preso e ha iniziato a masticare le foto appena gliele ho date.
Vediamo un po' se esce fuori qualcosa di buono o se sto solo usando il PC come stufetta! :rolleyes:

Stavo considerando la potenza di calcolo necessaria per la fotogrammetria automatica: credo che per 50 foto servano 50^2 confronti per trovare punti in comune tra tutte le foto, quindi 2500 confronti; però le istruzioni di Regard3d suggeriscono di usare da 50 a 200 foto... cioè da 2500 a 40.000 confronti!! :eek:

Urge una scheda grafica decente!

Ho letto che per la fotogrammetria è utile che la scheda disponga dalla tecnologia CUDA a elaborazione parallela, che sarebbe "tipica" di nVidia (addirittura, Autodesk Remake in locale funziona SOLO con schede nVidia, anche se non parla esplicitamente di questo CUDA).

E' interessante anche soffermarsi a studiare i modelli 3d risultanti da un'elaborazione con poche foto: ci si rende conto di come il nostro cervello "inventi" di sana pianta "il retro" degli oggetti solidi che vede, mentre nei modelli 3d questo "retro", cioè la parte eventualmente non coperta dalle foto, appare piatto, grigio e senza texture, causa totale mancanza di immaginazione da parte del computer.
Per esempio, se guardo una colonna, so benissimo che è cilindrica, senza bisogno di girargli intorno; ma se faccio 50 foto a una colonna senza però girargli intorno.... il computer, invece di una colonna, tirerà fuori uno sgorbio con un lato perfettamente tondo! :doh:

Per inciso, questa è anche la "caratteristica" più sfruttata da maghi e prestigiatori per "farci fessi": sanno che il nostro cervello immagina le zone che non vede, e ne approfittano per far succedere di tutto in quelle zone!

jumpjack 06-10-2017 11:39

Qualche link da esaminare per la tecnologia "structure from motion":
https://dronemapper.com/software_downloads
https://publiclab.org/notes/nedhorni...ructure-motion
https://forum.openrov.com/t/structur...-for-free/4974
http://ccwu.me/vsfm/#demo

zappy 06-10-2017 13:09

Quote:

Originariamente inviato da jumpjack (Messaggio 45075799)
Ho dato in pasto a Regard3d ...

speriamo migliori e/o sia inglobato in progetti 3D più dinamici e avanzati come Blender!

Quote:

Stavo considerando la potenza di calcolo necessaria per la fotogrammetria automatica: credo che per 50 foto servano 50^2 confronti ...
essendo open magari si trova anche un po' di teoria di quel che gli sta dietro...

...
Quote:

Per esempio, se guardo una colonna, so benissimo che è cilindrica, senza bisogno di girargli intorno; ma se faccio 50 foto a una colonna senza però girargli intorno.... il computer, invece di una colonna, tirerà fuori uno sgorbio con un lato perfettamente tondo! :doh:
perchè l'hai già vista. altrimenti col piffero che sai come è fatta dietro una cosa.
prendi un'auto appena uscita, se la vedi solo da davanti non hai la + pallida idea di dove sta la targa dietro :p

Quote:

Per inciso, questa è anche la "caratteristica" più sfruttata da maghi e prestigiatori per "farci fessi": sanno che il nostro cervello immagina le zone che non vede, e ne approfittano per far succedere di tutto in quelle zone!
:D

jumpjack 06-10-2017 15:40

Quote:

Originariamente inviato da zappy (Messaggio 45076579)
perchè l'hai già vista. altrimenti col piffero che sai come è fatta dietro una cosa

In realtà il nostro cervello è anche pù sofisticato: anche se QUELLA specifica colonna non l'hai mai vista prima, riconosci che è una colonna e deduci la forma della parte che non vedi! Una specie di... magia. ;)

E a proposito di "cose quasi magiche" e "intuizione dall'esperienza", ho scovato un algoritmo interessante (anche se OT...): permette al computer di ricostruire i colori di un'immagine in bianco e nero "deducendolo" dalle texture dell'immagine e dalla sua "esperienza" in merito a colori e texture.
Chissà se un giorno riusciranno a inventare un algoritmo del genere per gli oggetti invece che per i colori!
Ecco un'applicazione di questo incredibile algoritmo, che a volte ha del miracoloso:
http://demos.algorithmia.com/colorize-photos/

Mi ha per esempio permesso di dirimere la diatriba tra "teca bianca" e "teca rossa" che sollevai tempo fa nel thread: l'algoritmo ha riconosciuto come "rosso" il materiale della vecchia teca! (cosa poi confermata da alcuni documenti storici: era finto porfido rosso)
Il risultato con questa immagine è strabiliante!




Considerate che un'immagine come questa probabilmente non può esistere nella realtà, visto che la pellicola a colori è arrivata in italia negli anni '50 ma la teca fu verniciata di bianco proprio negli anni '50, quindi probabilmente non esistono foto a colori della versione originale rossa.

zappy 06-10-2017 19:36

sembra quelle cartoline di molti anni fa in cui venivano colorate le foto in b/n :D

jumpjack 06-10-2017 21:12

Interessante, ancora una volta il SW open si rivela migliore di quello che costa fior di quattrini: Regard3d mi comunica che la ricerca dei punti in comune tra le foto ha richiesto 5 ore e 48 minuti, e che i punti in comune tra le varie foto variano tra 6788 e 38956 (mai letta nessuna statistica, nè in Remake nè in 3DF).

La fase successiva è la "triangolazione" (vedi tutorial ufficiale): ha richiesto solo 4 minuti e 12 secondi! Il risultato è che sono state scartate solo 2 foto su 59 e sono stati trovati 80672 punti 3d (3DF ne aveva scartate 15).

Per la fase successiva, la "densificazione", ho impostato inizialmente parametri un po' riduttivi, giusto per fare una prova veloce: scarto delle immagini meno utili (flag "use visibility informations") e "Livello 3" (qualunque cosa significhi; il tutorial dice che più è alto, più l'elaborazione è veloce).
Tempo impiegato: 8m 12s

L'ultima fase è l'unione dei vari punti tramite superfici interpolate, per creare il "guscio" (mesh o surface) finale; una prima passata la faccio col metodo della colorazione dei soli vertici, più rapida: 39 secondi. Il metodo delle texture impiega invece 25 minuti e dà origine a un file così grosso (75MB) e complicato che non riesco a visualizzarlo nè in Regard3d nè in altri programmi!
Invece, restando sul metodo della colorazione dei soli vertici ma impostando Depth diverse, l'elaborazione resta sempre intorno al minuto.


Find matches - fatto - 05h48m
Triangulation - 00h 4m 12s
Densification - 00h 8m 12s
Surface generation - vertici: 1 minuto
Surface generation - texture: 25 minuti

Delle 59 foto, 3 le ho scattate da 10 metri di distanza (per avere una panoramica), 20 le ho scattate da 20-30 cm di distanza con flash (per riprendere il particolare della Lupa con Romolo e Remo, in basso a destra, che stanno nascosti in un anfratto), mentre tutte le altre da circa 50cm-1metro.
La parte alta della scultura è irraggiungibile, arrivando a 4-5 metri di altezza.

Non sono ancora riuscito a esportare da Regard3d in formato OBJ, l'esportazione si blocca; riesco a esportare solo in PLY: 150 MB di file!
Compressi diventano 40MB. Però purtroppo non c'è texture.

Ho caricato il risultato su Sketchfab:
link

Questa invece è una rassegna di screenshot delle varie elaborazioni:
link

jumpjack 07-10-2017 19:43

Alla fine ho deciso di fare un regalino al mio vetusto PC:
16GB di RAM in più, e una scheda video Nvidia con 2 GB di DDR5 e 640 cores CUDA (una nVidia GTX 1050 Asus) . :) Spesa totale 250 euro (un PC con questa dotazione al momento costa 1500 euro...).

Questi erano i precedenti tempi di elaborazione (con 4GB di RAM e senza scheda video dedicata):
Quote:

Originariamente inviato da jumpjack (Messaggio 45077993)
Find matches - 05h 48m
Triangulation - 00h 4m 12s
Densification - 00h 8m 12s
Surface generation - vertici: 1 minuto
Surface generation - texture: 25 minuti

Quelli di oggi:
Find matches - 1h 10m
Triangulation - 4m
Densification - 5m 23s
Surface generation - vertici: 0m 17s
Surface generation - texture: 6m 49s

Però c'è un fatto strano: quando vado a ruotare la mesh finale risultante, il processo è lentisssssssimo! Vedo quando vengono disegnate le varie migliaia di poligoni ogni volta che muovo l'immagine anche di un solo grado! Sarà un problema di driver?!? Non li ho installati, ho solo infilato la scheda e acceso il PC... :stordita:

jumpjack 08-10-2017 15:39

La Ocutech360 sperimenta un algoritmo per estrapolare automaticamente un modello 3d da un filmato a 360°:
https://www.spar3d.com/news/related-...deo-3d-models/

jumpjack 11-10-2017 10:02

Altri programmi opensource per la ricostruzione 3d:

Bundler
PPTGui (Python Photogrammetry Toolbox GUI)
VisualSFM

Tutorial PPTGui in italiano:
Un tutorial parte Uno - Parte due

Un altro

jumpjack 20-10-2017 11:20

Adesso addirittura abbiamo la ricostruzione Structure From Motion in tempo reale su dispositivi Android!
https://medium.com/super-ventures-bl...t-5223e6b3e79d

Quote:

So how it works is that when you launch an ARCore/ARKit app, the Tracker checks to see if there is a Map pre-(down)loaded & ready to go (there never is in v1.0 of ARCore & ARKit), so the tracker Initializes a new map by doing a stereo calculation as I described in my last post. This means we now have a nice little 3D map of just what is in the Camera’s field of view. As you start moving around, and new parts of the background scene move into the field of view, more 3D points are added to the map and it gets bigger. And bigger
E' possibile grazie all'SDK ARcore, per ora disponibile solo su S8 e Pixel in beta.
Pare sia una evoluzione/involuzione del sistema Tango, che si basa(va) su un sensore 3d tipo kinect... a quanto pare reso obsoleto dalla potenza di calcolo disponibile!
Spero solo che il mio "misero" S7 sia all'altezza...

ARKit è l'equivalente per IOS/Apple.

ARCore fa addirittura una stima dell'illuminazione dei vari punti della stanza, e cambia l'illuminazione di un oggetto virtuale visualizzato sullo schermo a seconda del punto della stanza in cui virtualmente si trova!

Nuovi termini da aggiungere al proprio vocaboloario tecnologico:
SLAM - Simultaneous localization and mapping
VSLAM - Visual Simultaneous localization and mapping
VIO - Visual Inertial Odometry

Qui però stiamo sconfinando nella realtà aumentata, dovel la SFM è solo un elemento secondario: viene usata "solo" per far capire al cellulare/computer com'è fatto l'ambiente 3d circostante, in modo da sovrapporgli realisticamente oggetti virtuali.

jumpjack 26-10-2017 19:21

Altra ricerca sulla fattibilità della ricostruzione di interni a partire da immagini sferiche o fisheye:
Immersive Photogrammetry in 3D Modelling
GEOMATICS AND ENVIRONMENTAL ENGINEERING • Volume 9 • Number 2 • 2015
Karol Kwiatek*, Regina Tokarczyk**

jumpjack 15-11-2017 12:34

Si prospetta un futuro sempre più interessante per la preservazione virtuale dei monumenti, nonchè della loro visita virtuale:
Facebook/Oculus un mese fa ha annunciato un visore VR standalone, quindi svincolato dal PC , chiamato "Oculus go", a 200$, e HTC ha adesso annunciato il suo, che si chiamerà "HTC Vive Focus".

La grossa novità per entrambi sta nel fatto di avere 6 gradi di libertà, cioè orientamento e posizione, cosa che un semplice cardboard o GearVR non hanno, essendo limitati a 3 DOF (solo rotazione).

HTC Vive e Oculus Rift, i precedenti visori, oltre a richiedere connessione a PC richiedevano sensori esterni per monitorare e trackare il giocatore, mentre HTC Vive Focus e Oculus Go hanno tutto l'hardware a bordo.

Questi due nuovi visori standalone vanno quindi ad aggiungersi al "cardboard+S8", reso possibile dall'SDK ArCore per android di cui parlavo un paio di post fa.


Intanto ho scoperto anche lalibreria Vuforia per Android, che permette anche a cellulari che non supportano ancora ArCore di ricostruire l'ambiente 3d circostante senza fare ricorso a sensori esterni; mi pare di capire però che, almeno per ora, riesce a ricostruire solo un unico piano di appoggio (pavimento, tavolo), su cui è possibile collocare oggetti virtuali che non necessitano "marker".
Però non ho ancora capito se devo per forza scrivere un'app per usarla o se c'è una qualche app che mi permette semplicemente di aggiungere i miei oggetti al mondo reale.


Ho anche scoperto che Mizarlab (http://www.mizarlab.it/) è la società che sta "dietro" alle ricostruzioni virtuali, ma tramite semplici proiettori, dei fori di Augusto e Cesare a Roma, dell'Ara Pacis, delle tombe etrusche di Cerveteri. Spero che presto passino dal 2d al 3d, e di poter fare una passeggiata per i fori indossando un Oculus Go!

jumpjack 15-11-2017 14:12

SDK "Maxst" con versione gratuita per uso non commerciale, con potenzialità apparentemente simili a Vuforia:
https://developer.maxst.com/Pricing

Anche qui c'è da capire come aggiungere un mio modello, se solo tramite app scritta in proprio o altro.

jumpjack 15-11-2017 14:53

Tutorial Vuforia (free) + Unity (free) per app con tracker a piacere e modello 3d a piacere:
https://www.youtube.com/watch?v=khavGQ7Dy3c

jumpjack 26-12-2017 17:57

Un altro importante contributo a questa nuova branca della scienza che è l'arechoricostruzione virtuale: le terme di caracalla!
Progetto "Caracalla IV dimensione", curato dal CNR.

Per chi non lo sapesse, le terme di Caracalla sono fatte di "palazzoni" alti una cinquantina di metri!
Oggi sono rimasti solo i muri e pochi tetti, ma all'epoca, come ora si potrà finalmente vedere invece di immaginare, c'erano marmi, mosaici e statue.



...e io che ci sono andato appena due mesi fa! :doh: A saperlo prima! :muro:


Dal sito ufficiale:
Quote:

La tecnologia si basa su un visore, all’interno del quale è inserito uno smartphone con uno specifico software. Con semplici comandi gestiti da un solo pulsante, l’apparecchio dotato di georeferenziazione, riprodurrà i luoghi dove si trova il visitatore con una prospettiva immersiva, coprendo cioè tutto lo spazio visivo.
I visori saranno disponibili all’ingresso delle Terme nel normale orario di apertura del monumento.
La visita, articolata in dieci tappe di cui sei con la realtà virtuale, si fonda su ricostruzioni filologiche delle Terme, basate sugli studi degli ultimi trenta anni e curate per la parte scientifica da Marina Piranomonte, direttore del monumento. Il progetto, a cui ha collaborato per l’ideazione tecnologica Francesco Antinucci del Consiglio Nazionale delle Ricerche, è stato coordinato da Francesco Cochetti di CoopCulture.
All’interno delle ricostruzioni digitali sono state inserite le immagini reali di alcune statue e decorazioni dell’impianto termale che oggi fanno bella mostra di sé in vari luoghi, tra cui il Museo Archeologico Nazionale di Napoli, la Reggia di Caserta, che hanno collaborato al progetto, e Piazza Farnese.
http://www.coopculture.it/events.cfm?id=801

In altre parole, credo che sia un Samsung Gear VR.

Quote:

Via delle Terme di Caracalla, 52 Terme di Caracalla
09.00 - 16.30
Dall’ultima domenica di ottobre al 15 febbraio: 09.00 - 17.00
Dal 16 febbraio al 15 marzo: 09.00 - 17.30
Dal 16 marzo all’ultimo sabato di marzo: 09.00 - 19.15
Dall’ultima domenica di marzo al 31 agosto: 09.00 - 19.00
Dal 1 settembre al 30 settembre: 09.00 - 18.30
Dal 1 ottobre all’ultimo sabato di ottobre: Il lunedì 9.00 – 14.00
Chiuso 1 gennaio, 25 dicembre
Nota: Google Maps NON SA dove sia l'ingresso delle terme di Caracalla: mi ha fatto girare per mezz'ora intorno a un punto che non c'entra niente con l'ingresso...
QUESTO è il vero ingresso, presso il Largo Cavalieri di Colombo: link
Solo che... è una strada a senso unico, non ci si può entrare dal viale Terme di Caracalla! Che è uno stradone a 6 corsie non "parcheggiabile"!
Quindi l'unico modo sensato per arrivare qui in macchina e parcheggiare (gratuitamente) accanto alle terme è prendere Via Antonina da via Guido Baccelli, e fare tutta la discesa fino all'ingresso.


Tutti gli orari sono GMT +1. Ora sono le: 12:01.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2021, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.