PDA

View Full Version : [archeologia] Preservazione virtuale dei monumenti


jumpjack
27-06-2017, 14:22
Quest'app (sketchfab) è a dir poco stupefacente!
https://play.google.com/store/apps/details?id=com.sketchfab.sketchfabvr&hl=it

Permette di "immergersi" in antichi siti archeologici, come se si fosse sul posto! E' già eccezionale con Google Cardboard, che rappresenta il "minimo sindacale" per la realtà virtuale, non avendo il tracking posizionale della testa, ma già così l'esperienza è fenomenale!
E, a quanto ho capito, non serve chissà quale strumentazione per realizzare i modelli, basta qualche decina di foto!

Potrebbe rappresentare il futuro per quei "siti archeologici impossibili" che vengono scoperti durante la costruzione di strade, ferrovie, metropolitane ed edifici: destinati normalmente a essere riseppelliti e distrutti, in futuro basterà invece fotografarli in abbondanza, e chiunque, quandunque e ovunque potrà visitarli... anche se/quando non dovessero esistere più! :eek:

Per vederlo sul PC usate invece il sito (https://sketchfab.com/) e abilitate WebGL (https://webvr.info/get-chrome/).

jumpjack
14-07-2017, 07:24
Ho indagato un po' più a fondo e ho scoperto che sito e app di sketchfab di per sè non permettono di realizzare i modelli, ma "solo" di visualizzarli in VR.
Per realizzarli serve un qualunque programma di cosiddetta "fotogrammetria automatica" e pare che ce ne siano tanti, anche free.
Questi si usano per digitalizzare qualcosa di esistente.

Se invece si vuole costruire un modello a mano da zero, si possono usare anche qui tanti programmi.... ma ho scoperto che il "classico" Trimble Sketchup, adatto anche ai principianti, adesso ha un potente alleato: Kubity (https://www.kubity.com/)
Una semplice app, per iOs e Android, che in un istante permette di immergersi in VR in un proprio modello!
Ho idea che, date le potenzialità di una simile app, non durerà molto come freeware, quindi conviene salvarsi l'APK sul PC e custodirlo gelosamente! :read:

Mi sa che Google ha preso una bella cantonata a dar via Sketchup!
Sketchup + Google Earth + Kubity = rivoluzione archeologico-turistica digitale!

Immaginate milioni di appassionati nel mondo che ricostruiscono digitalmente monumenti ormai scomparsi, li schiaffano su Google Earth e li rendono visitabili con Kubity!
Il Porto di Ripetta e il Colosso accanto al Colosseo di Roma, tanto per citarne un paio: uno va a Roma, si mette accanto a dove sorgeva il colosso, ma dove ora c'è solo asfalto, indossa il suo visore, e magicamente il Colosso ricompare dov'era! E il Porto di Ripetta risorge sul Tevere!


Purtroppo Kubity non ha ancora la sovraimpressione del modello alle immagini della telecamera, quantomeno in modalità VR; in modalità 3d semplice però sì, quindi immagino sia solo questione di tempo.

jumpjack
16-07-2017, 16:06
...sembrva troppo bello per essere vero...
Di Kubity è freeware solo il player android! L'app che rende gli oggetti Sketchup visionabili nell'app è invece a pagamento! E a ben 30 euro al mese!
Esiste anche una versione trial... ma non è dato di sapere quanto dura (ma immagino un mese come al solito).
In compenso, è appena uscito un nuovo plugin per Sketchup che pare invece essere freeware e opensource:
http://www.bimplus.co.uk/technology/n3ew-sket5chup-plu6gin-powers-2d-vr-seconds/

Quest, stando al sito ufficiale, sarebbe il sito per scaricarlo... ma il link è errato!http://www.bimplus.co.uk/admin/articles/article/add/Yulio.com/plugin/download/
A visionare bene il link, sembra un refuso, e infatti basta smanettarlo un po' per ottenere il link giusto:
https://www.yulio.com/plugin/download/


-------

Una volta che avrò trovato il "software definitivo" per trasportare nella Realtà Virtuale i modelli Sketchup, tra i vari progetti più o meno complicati che ho in mente ne ho anche uno relativamente semplice: riportare in vita oggetti e monumenti del passato tramite "foto a realtà aumentata"; vista infatti la complessità e lunghezza del trasformare una foto in modello 3d, ho pensato che, se si riesce a determinare con precisione centimetrica da dove è stata scattata un'antica foto, basterebbe poi creare un "oggetto 3d" che consiste semplicemente nella foto stessa, ma posizionata in modo tale da essere osservata, tramite visore VR, come se ci si trovasse nel luogo esatto in cui si trovava il fotografo; poi basterà andare sul posto, osservarlo come è adesso, e poi inforcare il visore per fare un tuffo nel passato.
Un tuffo... semplificato, ma dovrebbe essere comunque interessante!

-----
un paio di app da esaminare:
sightspacepro - https://play.google.com/store/apps/details?id=com.limitlesscomputing.sightspacepro&hl=it&rdid=com.limitlesscomputing.sightspacepro
modelviewer - https://play.google.com/store/apps/details?id=com.hedgefu.modelviewer&hl=en

jumpjack
20-07-2017, 14:11
Ho iniziato a lavorare al mio progetto di VR (e futura AR): la teca del Morpurgo del 1938, oggi sparita.
Se vi va di dargli un'occhiata, poi mi fate sapere se sui vostri cellulari/visori il modello gira?
https://sketchfab.com/models/d27dc85a75f747aca42310c3014c2244

Al momento il modello è veramente rozzo e semplice, sto solo testando l'app, ma conto di ricostruire per intero la teca, texture incluse, e di aggiungere anche gli edifici circostanti; visto che però quelli ancora esistono, penso che andrò sul posto a fare qualche miliardo di foto ;) da dare in pasto ad Autodesk Remake e a 3DF Zephyr, vediamo chi se la cava meglio! Il secondo è completamente gratuito il primo ancora non capito bene se ha solo una versione economica per studenti o anche una del tutto free.

Però ho un grosso problema: la teca era bianca o nera???
http://www.engramma.it/eOS/image/97/097_Belli_03.jpg


https://upload.wikimedia.org/wikipedia/commons/thumb/e/ee/Ara_Pacis_-_Morpurgo%2C_2000.jpg/290px-Ara_Pacis_-_Morpurgo%2C_2000.jpg

zappy
20-07-2017, 14:46
...se si riesce a determinare con precisione centimetrica da dove è stata scattata un'antica foto, basterebbe poi creare un "oggetto 3d" che consiste semplicemente nella foto stessa, ma posizionata in modo tale da essere osservata, tramite visore VR, come se ci si trovasse nel luogo esatto in cui si trovava il fotografo; poi basterà andare sul posto, osservarlo come è adesso, e poi inforcare il visore per fare un tuffo nel passato.
Un tuffo... semplificato, ma dovrebbe essere comunque interessante!
non ho capito l'utilità rispetto a guardare la foto e basta. :mbe:

jumpjack
20-07-2017, 15:58
non ho capito l'utilità rispetto a guardare la foto e basta. :mbe:

Grazie al modello 3d sarà possibile andare sul posto a Roma e con un visore VR sovrapporre il modello del vecchio edificio all'edificio attuale, mediante realtà aumentata: sarà possibile cioè girarsi intorno e vedere come sarebbe se il vecchio edificio, oggi demolito, fosse ancora lì. Si chiama "realtà aumentata immersiva" (immersive AR).

Oppure si potrà, da casa, visionare il vecchio edificio come se ci si trovasse sul posto.

Con le foto l'effetto immersivo ovviamente è minore, ma dovrebbe comunque essere "visivamente potente": un'evoluzione di quei libricini turisitici con le pagine trasparenti che sovrappongono le ricostruzioni ai resti dei monumenti.

Però se non hai mai provato di persona un visore VR non puoi capire bene che effetto fa... :stordita:
Se hai un cell col giroscopio, con 15 euro puoi comprare online un visore cardboard-compatibile.

zappy
21-07-2017, 14:55
...Però se non hai mai provato di persona un visore VR non puoi capire bene che effetto fa... ...
ma di testa? :D
ok, cmq ho capito :)

jumpjack
22-07-2017, 15:56
Ecco un piccolo assaggio delle possibilità offerte da questa nuova tecnologia:
https://dg5bepmjyhz9h.cloudfront.net/urls/b7fc9ce7998f4bdd86a6500f9890fbf5/dist/thumbnails/b06fb39f3ee84cf789cb3ea3714e5d6f/1024x576.jpeg

Modello 3d:
https://skfb.ly/6sA7Z

5 (cinque() minuti di lavoro sul campo per fare 60 foto da 16 Mpixel da tutte le angolazioni possibili immaginabili, un'ora per caricare i 330 MB risultanti, e poi una mattinata passata... ad aspettare comodamente seduto sul divano. :D

Il risultato è a dir poco strabiliante, non vi pare?

Ho usato la versione trial di Autodesk Remake, che supporta fino a 250 foto e risoluzione "smodata" per il modello; quando scadrà la trial diventerà free e ne supporterà solo 50 e una risoluzione "normale"... che non so a quanto equivalga, lo saprò quandoo mi scadrà la licenza...

Il soggetto è la Fontana della Botticella in piazzale Augusto a Roma.

zappy
23-07-2017, 11:28
notevole! :mano:
chissà se c'è qualche sw opensource x fare lo stesso.

Harlus
23-07-2017, 13:06
Interessante, ma come funziona esattamente?
Basta dargli in pasto "a caso" tutte le foto scattate da varie angolazioni o bisogna dargli manualmente certe indicazioni sull'angolazione delle varie foto?

jumpjack
24-07-2017, 07:57
Interessante, ma come funziona esattamente?
Basta dargli in pasto "a caso" tutte le foto scattate da varie angolazioni o bisogna dargli manualmente certe indicazioni sull'angolazione delle varie foto?

Il bello è proprio questo: tutto quello che devi fare è scattare tante foto e fare l'upload.
Poi te ne vai a fare quello che ti pare, e quando torni, la torta è pronta! :)

L'unica accortezza è di scattare foto mantenendo il soggetto al centro dell'inquadratura, in modo che in ogni coppia di foto ci sia un buon 70-80% di roba in comune; con gli edifici non è facile; questa chiesa, per esempio, era fotografabile solo su due lati, senza dover stare in mezzo a una strada trafficata... :stordita: , quindi il risultato è parziale... ma comunque buono:
https://sketchfab.com/models/861056abce7e4843b1b1310afed70f0e

Adesso sto facendo un altro esperimento con la chiesa accanto a questa: visto che l'ho comunque fotografata parzialmente, e che in ogni caso non posso fotografarla dall'alto, voglio provare ad aggiungere degli screenshot da Google Earth Pro, che mostra gli edifici in 3d; da vicino sono molto grossolani, ma spero che i dati siano almeno sufficienti a dare solidità a 360x360° al modello.

jumpjack
24-07-2017, 08:52
Ecco un'altra app molto interessante... anche se per il momento ancora non esiste! :stordita:
https://www.atavisticapp.com/scarica

Non capisco bene se è un progetto abbandonato o ancora in sviluppo, il sito è un po' scarno, però le potenzialità di quest'app sono enormi!

In breve consente di aggiungere a una foto di un monumento, scattata anche con gente nel mezzo, la ricostruzione 3d di come il monumento era una volta!

jumpjack
25-07-2017, 10:01
Ho trovato due programmi free di realtà aumentata, con stesso nome ma molto diversi... e molto lontani nel tempo!

ARToolkit (https://www.hitl.washington.edu/artoolkit/projects/) (del 2004 ?!? Per Windows, Linux e Windows.CE!!)

ARToolkit (http://www.artoolkit.org/) (2017, anche per Android)

Devo capire quant'è complicato usare il secondo per creare un'app...

Nel cercare ARToolkit sullo store ho anche trovato CoRo AR (https://play.google.com/store/apps/details?id=in.coro.ar&hl=it), basato appunto su ARToolkit, che è interessante perchè usa un marker così semplice che si può disegnare a penna!

jumpjack
27-07-2017, 07:53
Grande novità!
Ho finalmente trovato un'app di Realtà Aumentata totalmente grautita! (sia per creare i modelli 3d che per vederli).
Si chiama ARMedia SDK (http://www.inglobetechnologies.com/en/products.php), di cui esistono plugin per vari programmi, tra cui Trimble Sketchup, uno dei più semplici da usare; il plugin dovrebbe essere compatibile con le versioni dalla 8 in poi, ma a me sulla 8 non va, l'ho installato sulla 2014 (la v.8 era l'ultima di Google, le successive sono di Trimble).
Questi invece sono i player, per varie piattaforme tra cui iOs e Android:
http://www.inglobetechnologies.com/en/new_products/arplayer/info.php

il plugin di Sketchup è piuttosto macchinoso da usare, ma alla fine sono riuscito a ottenere i file .armedia dei miei modelli della teca di Morpurgo (https://sketchfab.com/models/d27dc85a75f747aca42310c3014c2244) e del porto di Ripetta (https://sketchfab.com/models/0a6a9309d718415c813954740833ec7e) (quest'ultimo per ora è limitato a una semplice foto), adesso devo capire se c'è un sito Armedia per la condivisione o se devo metterli su un sito mio.

La suite Armedia è davvero potente: permette di aggiungere a un modello in realtà aumentata dei video "proiettati" su una superficie del modello, o una colonna sonora di sottofondo, e permette anche di effettuare il tracking di un oggetto in 3 modi: con classico target bidimensionale, tramite GPS+giroscopio, e persino tramite target tridimensionale! (http://dev.inglobetechnologies.com/documentation/plugins/start/) Gli ultimi 2 metodi mi sembrano ideali per sovrapporre edifici virtuali a edifici reali; il primo è probabilmente non precisissimo, ma per il secondo intravedo enormi possibilità: le istruzioni dicono infatti di fare una 50ina di foto all'edificio da "ricreare", e da esse i server Armedia ricavano un modello 3d di massima, che viene poi usato dal player per fare il tracking; questo dovrebbe significare che potrebbe essere possibile passeggiare intorno a un edificio e, in tempo reale, vedergli sovrapposte le immagini di com'era prima. Anche con un "semplice" cellulare, che di per sè (ad oggi) non ha "positional tracking" ma solo "orientation tracking".
E' possibile persino inserire degli "oggetti occultanti" o "maschere 3d" nel modello, per fare in modo che se, girando intorno all'edificio, vi trovate davanti un albero o un cartello, questo non comparirà DIETRO al modello, che di fatto viene disegnato SOPRA l'immagine della telecamera, ma coomparirà davanti al modello! Questo garantisce un tremendo incremento di realismo!

Devo solo capire bene quante di queste caratteristiche sono disponibili nella versione free, ma per ora mi sembra di capire che lo sono tutte, al "costo" di sopportare scritte e watermark in sovraimpressione.

Sull'utilizzo di visori VR non ho trovato per il momento indizi sul sito ARMedia, ma c'è da dire che per la AR i visori VR non rendono molto, almeno adesso che i cellulari hanno una sola telecamera posteriore, o al massimo due distanti pochi mm: questo impedisce infatti di avere la tridimensionalità per le immagni reali che vengono mostrate "dietro" al modello 3d.

Harlus
30-07-2017, 09:50
Il bello è proprio questo: tutto quello che devi fare è scattare tante foto e fare l'upload.
Poi te ne vai a fare quello che ti pare, e quando torni, la torta è pronta! :)

L'unica accortezza è di scattare foto mantenendo il soggetto al centro dell'inquadratura, in modo che in ogni coppia di foto ci sia un buon 70-80% di roba in comune; con gli edifici non è facile; questa chiesa, per esempio, era fotografabile solo su due lati, senza dover stare in mezzo a una strada trafficata... :stordita: , quindi il risultato è parziale... ma comunque buono:
https://sketchfab.com/models/861056abce7e4843b1b1310afed70f0e

Adesso sto facendo un altro esperimento con la chiesa accanto a questa: visto che l'ho comunque fotografata parzialmente, e che in ogni caso non posso fotografarla dall'alto, voglio provare ad aggiungere degli screenshot da Google Earth Pro, che mostra gli edifici in 3d; da vicino sono molto grossolani, ma spero che i dati siano almeno sufficienti a dare solidità a 360x360° al modello.

ma l'elaborazione si fa sul pc di casa o sui loro server?
Per ora comunque la "scansione" migliore è quella della fontana secondo me.
Ah, ma ovviamente usi qualche comando per "ritagliare" i margini del modello?

jumpjack
30-07-2017, 17:13
ma l'elaborazione si fa sul pc di casa o sui loro server?

il programma Remake non consente nemmeno di avviarla l'elaborazione in locale, se non rileva almeno 16 GB di RAM e una scheda grafica NVIDIA... :stordita:
Ed è meglio così, perchè ho provato ad elaborare sul mio PC con 2GB, dual core e scheda video qualunque, gli stessi dati usando 3DF Zephyr... e dopo 36 ore non aveva ancora finito, ho dovuto desistere. :stordita:


Per ora comunque la "scansione" migliore è quella della fontana secondo me.
Ah, ma ovviamente usi qualche comando per "ritagliare" i margini del modello?
C'è un semplice tool "selezione" come in Paint, in Remake (ma puoi anche selezionare singole aree tramite un pennello tondo di larghezza a piacere).
Sennò si può usare anche Meshmixer (freeware, sempre Autodesk).

Sì, la fontana è la scansione migliore; ho provato anche a fare la scansione delle due chiese circostanti, ma chiaramente ottengo buoni risultati per le facciate, e zero risultati per il tetto! Allora ho provato a integrare le riprese dal basso con foto prese da Google Earth Pro, che ha modelli 3d di edifici ... ma Remake non ha gradito, è uscita fuori una schifezza.

in compenso sono riuscito a usare Remake come fotocopiatrice 3d :read:
Ho preso questo modello (https://sketchfab.com/models/8b6b29626c7f49a1a0376ff6cff863fc), l'ho schiaffato in questa pagina sperimentale (https://labs.sketchfab.com/experiments/gif-export/), ho fatto creare 4 gif animate partendo da varie inclinazioni del modello, ho caricato le GIF in VirtualDub, esportato come sequenze di immagini e dato tutto in pasto a Remake.
Il risultato è un modello fedele al 90% all'originale (potevo fare di meglio, ma per i miei scopi è più che sufficiente, quindi inutile stare a impazzire).

jumpjack
28-08-2017, 11:15
Sono sempre più convinto che questa faccenda della "fotogrammetria automatica" avrà effetti dirompenti sulla scienza... e non solo sull'archeologia!
Guardate cosa sono riuscito a fare con la versione free di Autodesk Remake, cioè usando solo 50 immagini! :eek:

https://dg5bepmjyhz9h.cloudfront.net/urls/72c10a2b187f4d72a7a1427265f17324/dist/thumbnails/655dfd5218ea494fae48108d15fcb406/720x405.jpeg

https://sketchfab.com/models/72c10a2b187f4d72a7a1427265f17324

E' il cratere Barbagallo Nord dell'Etna (https://www.google.it/maps/@37.7350951,14.9997344,407m/data=!3m1!1e3), fotografato camminando lungo il sentiero sul bordo del cratere stesso; tempo di ripresa: 20 minuti, il tempo di fare il giro. Quota 2900m, temperatura sui 10 gradi.
Pensate cosa si potrebbe fare con un drone che scatta 200 foto invece che 50! O, meglio ancora, che riprende un breve video tramite fotocamera a 360 gradi.
5 minuti di volo, 10 minuti di postproduzione per estrarre dal video a 360 le singole foto necessarie, un paio d'ore di elaborazione sui server... e qualunque geologo potrebbe passeggiare sul fondo del cratere (posizione 5) standosene comodamente seduto al calduccio in ufficio! :eek:


La faccenda di estrapolare le singole immagini dal video a 360° è una mia idea, a quanto pare non esiste ancora nessun SW in grado di farlo automaticamente, non ho capito se devo scrivermelo da me o se è meglio aspettare.... quanto? un paio d'anni?!? :(

zappy
28-08-2017, 11:33
Sono sempre più convinto che questa faccenda della "fotogrammetria automatica" avrà effetti dirompenti sulla scienza... e non solo sull'archeologia!
Guardate cosa sono riuscito a fare con la versione free di Autodesk Remake, cioè usando solo 50 immagini! :eek:

https://dg5bepmjyhz9h.cloudfront.net/urls/72c10a2b187f4d72a7a1427265f17324/dist/thumbnails/655dfd5218ea494fae48108d15fcb406/720x405.jpeg

https://sketchfab.com/models/72c10a2b187f4d72a7a1427265f17324

E' il cratere Barbagallo Nord dell'Etna (https://www.google.it/maps/@37.7350951,14.9997344,407m/data=!3m1!1e3), ...
credevo fosse un sasso :D
cmq notevole :eek:
l'unica cosa che mi dà fastidio è che il sw sia closed :)

jumpjack
31-08-2017, 21:05
Un altro paio di esperimenti applicativi: la misurazione della distanza di oggetti lontani (vedasi scarpata dietro allo scoglio di Terracina), e la ricostruzione 3d del luogo di un disastro, possibile nel giro di un paio d'ore, il tempo di fare un volo col drone e inviare le immagini a un server di elaborazione.

Scoglio di Terracina (https://www.google.it/maps/@41.2874885,13.2585098,3a,75y,13.03h,105.72t/data=!3m6!1e1!3m4!1s_lZtFYbTxiZY6pJr8ogVVg!2e0!7i13312!8i6656):
https://skfb.ly/6tu8o

https://jumpjack.files.wordpress.com/2017/08/crop-mini1.jpg

Macerie di Amatrice dopo il terremoto del 2016:
https://skfb.ly/6tu8D


In entrambi i casi i dati a disposizione sono pochissimi, quindi il risultato è un modello molto limitato: l'angolo di rotazione della camera intorno al soggetto, infatti, era di solo pochi gradi.

zappy
01-09-2017, 08:07
Un altro paio di esperimenti applicativi: la misurazione della distanza di oggetti lontani (vedasi scarpata dietro allo scoglio di Terracina), e la ricostruzione 3d del luogo di un disastro, possibile nel giro di un paio d'ore, il tempo di fare un volo col drone e inviare le immagini a un server di elaborazione.

Scoglio di Terracina (https://www.google.it/maps/@41.2874885,13.2585098,3a,75y,13.03h,105.72t/data=!3m6!1e1!3m4!1s_lZtFYbTxiZY6pJr8ogVVg!2e0!7i13312!8i6656):
https://skfb.ly/6tu8o

https://jumpjack.files.wordpress.com/2017/08/crop-mini1.jpg

Macerie di Amatrice dopo il terremoto del 2016:
https://skfb.ly/6tu8D


In entrambi i casi i dati a disposizione sono pochissimi, quindi il risultato è un modello molto limitato: l'angolo di rotazione della camera intorno al soggetto, infatti, era di solo pochi gradi.
per lo scoglio son foto tue dalla spiaggia e per amatrice hai estratto i fotogrammi da un volo?

jumpjack
01-09-2017, 12:42
per lo scoglio son foto tue dalla spiaggia e per amatrice hai estratto i fotogrammi da un volo?
sì esatto.

jumpjack
22-09-2017, 08:27
Ahimè, sta per finire la pacchia: Autodesk Remake funzionerà solo fino al 30 novembre, dopodichè verrà disabilitata la funzione di elaborazione su cloud e il programma verrà sostituito da Autodesk Recap Photo, a pagamento, a partire da 40 dollari al mese!!!
Recap Photo funzionerà esclusivamente online... il che lascia supporre che probabilmente sarà comunque possibile continuare a usare Remake offline; ergo, sbrigatevi a scaricarlo! (sempre che il download sia ancora disponibile!)
Ma tenete presente che i requisiti minimi di sistema sono 16 GB di RAM e una scheda video nVidia.

Comunque esiste già anche il freeware 3df Zephyr, e anche per cellulare stanno comparendo diverse app.

https://knowledge.autodesk.com/support/recap/troubleshooting/caas/sfdcarticles/sfdcarticles/ReCap-Photo-Frequently-Asked-Questions.html

zappy
22-09-2017, 08:37
Ahimè, sta per finire la pacchia: Autodesk Remake funzionerà solo fino al 30 novembre, dopodichè verrà disabilitata la funzione di elaborazione su cloud e il programma verrà sostituito da Autodesk Recap Photo, a pagamento, a partire da 40 dollari al mese!!!
Recap Photo funzionerà esclusivamente online... il che lascia supporre che probabilmente sarà comunque possibile continuare a usare Remake offline; ergo, sbrigatevi a scaricarlo! (sempre che il download sia ancora disponibile!)
Ma tenete presente che i requisiti minimi di sistema sono 16 GB di RAM e una scheda video nVidia.

Comunque esiste già anche il freeware 3df Zephyr, e anche per cellulare stanno comparendo diverse app.

https://knowledge.autodesk.com/support/recap/troubleshooting/caas/sfdcarticles/sfdcarticles/ReCap-Photo-Frequently-Asked-Questions.html
È quel che succede ad affidarsi a prodotti closed. Prima gratis o poco prezzo, per conquistare il mercato, Una volta che impari ad usarlo ed apprezzi (ed hai fatto il beta tester) ti salutano e devi sborsare un rene... :(

jumpjack
05-10-2017, 08:53
Autodesk Remake ci ha lasciato, così ho iniziato a fare esperimenti con 3DF Zephyr, di cui è ancora possibile utilizzare la versione gratuita, che accetta solo un massimo di 50 foto (come la ex versione free di ReMake) e funziona offline.
I risultati non sono male: pur avendo impostato la risoluzione minima, per non sovraccaricare il mio povero dual core con soli 4 GB (ma gli sto preparando un regalino :) ), ho ottenuto un modello 3d paragonabile a quello ottenuto con ReMake, usando la stessa base di foto: circa 50, di cui 3DF ne ha scartate 15 (per motivi che non so).

Questa volta, invece di fare un'elaborazione unica, ho proceduto per step, per non perdere il lavoro in caso di crash: nuvola di punti approssimativa ("sparse"), nuvola precisa ("dense"), mesh e infine mesh con texture.
Interessante il fatto che l'elaborazione stavolta sia durata solo un paio d'ore invece che 3 giorni come la volta scorsa (quando però avevo impostato la risoluzione massima).

Fontana "Tevere", a Roma, gruppo "Quattro fontane":

Versione Remake (https://sketchfab.com/models/6f9a1728758f4529bfcdbefcd9c26fb3)

Versione 3DF (https://sketchfab.com/models/a004e31c355348be98161e3107961eb4)

Intanto ho scoperto anche un software open e multipiattaforma, ma devo ancora provarlo: si chiama Regard3D (http://www.regard3d.org/).

La parola chiave da ricercare è, oltre a "fotogrammetria automatica" e cose simili, anche "structure from motion", "SFM".
Tempo fa avevo trovato un programma cercando in questa categoria, e ne trovai uno che dava come risultato una manciata di puntini e i punti di osservazione della telecamera, e l'ho scartato come "inutile", ma poi, facendo la suddetta prova con 3DF, ho scoperto che al primo passaggio la nuvola di punti "sparse" creata è molto simile a quella prodotta dal programma di SFM! Quindi forse avevo solo interrotto l'elaborazione troppo presto... o forse il SW era ancora troppo acerbo, non so.
Da indagare.

Un altro studio che ho fatto è la possibilità di usare foto a 360° per fare ricostruzioni 3d.
Oltre a "ottenere" che un tizio creasse (per me?!? (http://www.imagemagick.org/discourse-server/viewtopic.php?f=1&t=28289&sid=4213ef21ba2c2d0175e5f24f7c4ba5d4&start=15)) uno script per Imagemagick (http://www.fmwconcepts.com/imagemagick/sphericalpano2rect/index.php) che estrae singole immagini piane da una sferica , ho anche trovato una ricerca (italiana) che spiega come sia effettivamente possibile ricostruire l'interno di una stanza usando una decina di foto a 360° con pochissimo sforzo dell'utente:
https://www.int-arch-photogramm-remote-sens-spatial-inf-sci.net/XLII-2-W3/85/2017/isprs-archives-XLII-2-W3-85-2017.pdf

zappy
05-10-2017, 14:46
...Interessante il fatto che l'elaborazione stavolta sia durata solo un paio d'ore invece che 3 giorni come la volta scorsa (quando però avevo impostato la risoluzione massima).
ottimo!

Intanto ho scoperto anche un software open e multipiattaforma, ma devo ancora provarlo: si chiama Regard3D (http://www.regard3d.org/).

La parola chiave da ricercare è, oltre a "fotogrammetria automatica" e cose simili, anche "structure from motion", "SFM".
e pure questo :yeah:

jumpjack
06-10-2017, 08:18
Ho dato in pasto a Regard3d il solito pacco di 50 foto della fontana Tevere.
Si è bloccato il PC, non funziona manco il mouse, e dopo 3 ore sta ancora al 30% dell'elaborazione.... :(
Purtroppo non mi ha dato la possibilità di scegliere la risoluzione desiderata o altre opzioni... ha preso e ha iniziato a masticare le foto appena gliele ho date.
Vediamo un po' se esce fuori qualcosa di buono o se sto solo usando il PC come stufetta! :rolleyes:

Stavo considerando la potenza di calcolo necessaria per la fotogrammetria automatica: credo che per 50 foto servano 50^2 confronti per trovare punti in comune tra tutte le foto, quindi 2500 confronti; però le istruzioni di Regard3d suggeriscono di usare da 50 a 200 foto... cioè da 2500 a 40.000 confronti!! :eek:

Urge una scheda grafica decente!

Ho letto che per la fotogrammetria è utile che la scheda disponga dalla tecnologia CUDA (http://www.nvidia.it/object/cuda-parallel-computing-it.html) a elaborazione parallela, che sarebbe "tipica" di nVidia (addirittura, Autodesk Remake in locale funziona SOLO con schede nVidia, anche se non parla esplicitamente di questo CUDA).

E' interessante anche soffermarsi a studiare i modelli 3d risultanti da un'elaborazione con poche foto: ci si rende conto di come il nostro cervello "inventi" di sana pianta "il retro" degli oggetti solidi che vede, mentre nei modelli 3d questo "retro", cioè la parte eventualmente non coperta dalle foto, appare piatto, grigio e senza texture, causa totale mancanza di immaginazione da parte del computer.
Per esempio, se guardo una colonna, so benissimo che è cilindrica, senza bisogno di girargli intorno; ma se faccio 50 foto a una colonna senza però girargli intorno.... il computer, invece di una colonna, tirerà fuori uno sgorbio con un lato perfettamente tondo! :doh:

Per inciso, questa è anche la "caratteristica" più sfruttata da maghi e prestigiatori per "farci fessi": sanno che il nostro cervello immagina le zone che non vede, e ne approfittano per far succedere di tutto in quelle zone!

jumpjack
06-10-2017, 10:39
Qualche link da esaminare per la tecnologia "structure from motion":
https://dronemapper.com/software_downloads
https://publiclab.org/notes/nedhorning/10-10-2012/software-structure-motion
https://forum.openrov.com/t/structure-from-motion-for-free/4974
http://ccwu.me/vsfm/#demo

zappy
06-10-2017, 12:09
Ho dato in pasto a Regard3d ...
speriamo migliori e/o sia inglobato in progetti 3D più dinamici e avanzati come Blender!

Stavo considerando la potenza di calcolo necessaria per la fotogrammetria automatica: credo che per 50 foto servano 50^2 confronti ...
essendo open magari si trova anche un po' di teoria di quel che gli sta dietro...

...
Per esempio, se guardo una colonna, so benissimo che è cilindrica, senza bisogno di girargli intorno; ma se faccio 50 foto a una colonna senza però girargli intorno.... il computer, invece di una colonna, tirerà fuori uno sgorbio con un lato perfettamente tondo! :doh:
perchè l'hai già vista. altrimenti col piffero che sai come è fatta dietro una cosa.
prendi un'auto appena uscita, se la vedi solo da davanti non hai la + pallida idea di dove sta la targa dietro :p

Per inciso, questa è anche la "caratteristica" più sfruttata da maghi e prestigiatori per "farci fessi": sanno che il nostro cervello immagina le zone che non vede, e ne approfittano per far succedere di tutto in quelle zone!
:D

jumpjack
06-10-2017, 14:40
perchè l'hai già vista. altrimenti col piffero che sai come è fatta dietro una cosa
In realtà il nostro cervello è anche pù sofisticato: anche se QUELLA specifica colonna non l'hai mai vista prima, riconosci che è una colonna e deduci la forma della parte che non vedi! Una specie di... magia. ;)

E a proposito di "cose quasi magiche" e "intuizione dall'esperienza", ho scovato un algoritmo interessante (anche se OT...): permette al computer di ricostruire i colori di un'immagine in bianco e nero "deducendolo" dalle texture dell'immagine e dalla sua "esperienza" in merito a colori e texture.
Chissà se un giorno riusciranno a inventare un algoritmo del genere per gli oggetti invece che per i colori!
Ecco un'applicazione di questo incredibile algoritmo, che a volte ha del miracoloso:
http://demos.algorithmia.com/colorize-photos/

Mi ha per esempio permesso di dirimere la diatriba tra "teca bianca" e "teca rossa" che sollevai tempo fa nel thread: l'algoritmo ha riconosciuto come "rosso" il materiale della vecchia teca! (cosa poi confermata da alcuni documenti storici: era finto porfido rosso)
Il risultato con questa immagine è strabiliante!
http://www.engramma.it/eOS/resources/images/97/097_Belli_03.jpg

http://jumpjack.altervista.org/arapacis/01-sudest-color.png

Considerate che un'immagine come questa probabilmente non può esistere nella realtà, visto che la pellicola a colori è arrivata in italia negli anni '50 ma la teca fu verniciata di bianco proprio negli anni '50, quindi probabilmente non esistono foto a colori della versione originale rossa.

zappy
06-10-2017, 18:36
sembra quelle cartoline di molti anni fa in cui venivano colorate le foto in b/n :D

jumpjack
06-10-2017, 20:12
Interessante, ancora una volta il SW open si rivela migliore di quello che costa fior di quattrini: Regard3d mi comunica che la ricerca dei punti in comune tra le foto ha richiesto 5 ore e 48 minuti, e che i punti in comune tra le varie foto variano tra 6788 e 38956 (mai letta nessuna statistica, nè in Remake nè in 3DF).

La fase successiva è la "triangolazione" (vedi tutorial (http://www.regard3d.org/index.php/documentation/tutorial) ufficiale): ha richiesto solo 4 minuti e 12 secondi! Il risultato è che sono state scartate solo 2 foto su 59 e sono stati trovati 80672 punti 3d (3DF ne aveva scartate 15).

Per la fase successiva, la "densificazione", ho impostato inizialmente parametri un po' riduttivi, giusto per fare una prova veloce: scarto delle immagini meno utili (flag "use visibility informations") e "Livello 3" (qualunque cosa significhi; il tutorial dice che più è alto, più l'elaborazione è veloce).
Tempo impiegato: 8m 12s

L'ultima fase è l'unione dei vari punti tramite superfici interpolate, per creare il "guscio" (mesh o surface) finale; una prima passata la faccio col metodo della colorazione dei soli vertici, più rapida: 39 secondi. Il metodo delle texture impiega invece 25 minuti e dà origine a un file così grosso (75MB) e complicato che non riesco a visualizzarlo nè in Regard3d nè in altri programmi!
Invece, restando sul metodo della colorazione dei soli vertici ma impostando Depth diverse, l'elaborazione resta sempre intorno al minuto.


Find matches - fatto - 05h48m
Triangulation - 00h 4m 12s
Densification - 00h 8m 12s
Surface generation - vertici: 1 minuto
Surface generation - texture: 25 minuti

Delle 59 foto, 3 le ho scattate da 10 metri di distanza (per avere una panoramica), 20 le ho scattate da 20-30 cm di distanza con flash (per riprendere il particolare della Lupa con Romolo e Remo, in basso a destra, che stanno nascosti in un anfratto), mentre tutte le altre da circa 50cm-1metro.
La parte alta della scultura è irraggiungibile, arrivando a 4-5 metri di altezza.

Non sono ancora riuscito a esportare da Regard3d in formato OBJ, l'esportazione si blocca; riesco a esportare solo in PLY: 150 MB di file!
Compressi diventano 40MB. Però purtroppo non c'è texture.

Ho caricato il risultato su Sketchfab:
link (https://skfb.ly/69qZQ)

Questa invece è una rassegna di screenshot delle varie elaborazioni:
link (https://jumpjack.files.wordpress.com/2017/10/regard3d-esempi.png)

jumpjack
07-10-2017, 18:43
Alla fine ho deciso di fare un regalino al mio vetusto PC:
16GB di RAM in più, e una scheda video Nvidia con 2 GB di DDR5 e 640 cores CUDA (una nVidia GTX 1050 Asus) . :) Spesa totale 250 euro (un PC con questa dotazione al momento costa 1500 euro...).

Questi erano i precedenti tempi di elaborazione (con 4GB di RAM e senza scheda video dedicata):

Find matches - 05h 48m
Triangulation - 00h 4m 12s
Densification - 00h 8m 12s
Surface generation - vertici: 1 minuto
Surface generation - texture: 25 minuti


Quelli di oggi:
Find matches - 1h 10m
Triangulation - 4m
Densification - 5m 23s
Surface generation - vertici: 0m 17s
Surface generation - texture: 6m 49s

Però c'è un fatto strano: quando vado a ruotare la mesh finale risultante, il processo è lentisssssssimo! Vedo quando vengono disegnate le varie migliaia di poligoni ogni volta che muovo l'immagine anche di un solo grado! Sarà un problema di driver?!? Non li ho installati, ho solo infilato la scheda e acceso il PC... :stordita:

jumpjack
08-10-2017, 14:39
La Ocutech360 sperimenta un algoritmo per estrapolare automaticamente un modello 3d da un filmato a 360°:
https://www.spar3d.com/news/related-new-technologies/ocutech360-can-turn-360-video-3d-models/

jumpjack
11-10-2017, 09:02
Altri programmi opensource per la ricostruzione 3d:

Bundler (http://www.cs.cornell.edu/~snavely/bundler/)
PPTGui (Python Photogrammetry Toolbox GUI) (http://184.106.205.13/arcteam/ppt.php)
VisualSFM (http://ccwu.me/vsfm/)

Tutorial PPTGui in italiano:
Un tutorial parte Uno (https://opentechne.wordpress.com/2014/07/08/come-ottenere-un-modello-3d-da-semplici-fotografie-parte-2/) - Parte due (https://opentechne.wordpress.com/2014/07/29/come-ottenere-un-modello-3d-da-semplici-fotografie-parte-3-dalla-nuvola-di-punti-alla-stampa-3d/)

Un altro (http://exporttocanoma.blogspot.it/2012/12/)

jumpjack
20-10-2017, 10:20
Adesso addirittura abbiamo la ricostruzione Structure From Motion in tempo reale su dispositivi Android!
https://medium.com/super-ventures-blog/how-is-arcore-better-than-arkit-5223e6b3e79d

So how it works is that when you launch an ARCore/ARKit app, the Tracker checks to see if there is a Map pre-(down)loaded & ready to go (there never is in v1.0 of ARCore & ARKit), so the tracker Initializes a new map by doing a stereo calculation as I described in my last post. This means we now have a nice little 3D map of just what is in the Camera’s field of view. As you start moving around, and new parts of the background scene move into the field of view, more 3D points are added to the map and it gets bigger. And bigger

E' possibile grazie all'SDK ARcore, per ora disponibile solo su S8 e Pixel in beta.
Pare sia una evoluzione/involuzione del sistema Tango, che si basa(va) su un sensore 3d tipo kinect... a quanto pare reso obsoleto dalla potenza di calcolo disponibile!
Spero solo che il mio "misero" S7 sia all'altezza...

ARKit è l'equivalente per IOS/Apple.

ARCore fa addirittura una stima dell'illuminazione dei vari punti della stanza, e cambia l'illuminazione di un oggetto virtuale visualizzato sullo schermo a seconda del punto della stanza in cui virtualmente si trova!

Nuovi termini da aggiungere al proprio vocaboloario tecnologico:
SLAM - Simultaneous localization and mapping
VSLAM - Visual Simultaneous localization and mapping
VIO - Visual Inertial Odometry

Qui però stiamo sconfinando nella realtà aumentata, dovel la SFM è solo un elemento secondario: viene usata "solo" per far capire al cellulare/computer com'è fatto l'ambiente 3d circostante, in modo da sovrapporgli realisticamente oggetti virtuali.

jumpjack
26-10-2017, 18:21
Altra ricerca sulla fattibilità della ricostruzione di interni a partire da immagini sferiche o fisheye:
Immersive Photogrammetry in 3D Modelling
GEOMATICS AND ENVIRONMENTAL ENGINEERING • Volume 9 • Number 2 • 2015
Karol Kwiatek*, Regina Tokarczyk** (http://journals.bg.agh.edu.pl/GEOMATICS/2015.9.2/geom.2015.9.2.51.pdf)

jumpjack
15-11-2017, 11:34
Si prospetta un futuro sempre più interessante per la preservazione virtuale dei monumenti, nonchè della loro visita virtuale:
Facebook/Oculus un mese fa ha annunciato (https://www.polygon.com/2017/10/11/16459584/oculus-go-announced-price-release-date) un visore VR standalone, quindi svincolato dal PC , chiamato "Oculus go", a 200$, e HTC ha adesso annunciato (https://www.androidcentral.com/htc-vive-focus-standalone-vr-headset-powered-snapdragon-835?utm_source=ac&utm_medium=dailysummary&utm_content=UUacUsUmU1637&utm_campaign=email) il suo, che si chiamerà "HTC Vive Focus".

La grossa novità per entrambi sta nel fatto di avere 6 gradi di libertà, cioè orientamento e posizione, cosa che un semplice cardboard o GearVR non hanno, essendo limitati a 3 DOF (solo rotazione).

HTC Vive e Oculus Rift, i precedenti visori, oltre a richiedere connessione a PC richiedevano sensori esterni per monitorare e trackare il giocatore, mentre HTC Vive Focus e Oculus Go hanno tutto l'hardware a bordo.

Questi due nuovi visori standalone vanno quindi ad aggiungersi al "cardboard+S8", reso possibile dall'SDK ArCore per android di cui parlavo un paio di post fa.


Intanto ho scoperto anche lalibreria Vuforia per Android, che permette anche a cellulari che non supportano ancora ArCore di ricostruire l'ambiente 3d circostante senza fare ricorso a sensori esterni; mi pare di capire però che, almeno per ora, riesce a ricostruire solo un unico piano di appoggio (pavimento, tavolo), su cui è possibile collocare oggetti virtuali che non necessitano "marker".
Però non ho ancora capito se devo per forza scrivere un'app per usarla o se c'è una qualche app che mi permette semplicemente di aggiungere i miei oggetti al mondo reale.


Ho anche scoperto che Mizarlab (http://www.mizarlab.it/) è la società che sta "dietro" alle ricostruzioni virtuali, ma tramite semplici proiettori, dei fori di Augusto e Cesare a Roma, dell'Ara Pacis, delle tombe etrusche di Cerveteri. Spero che presto passino dal 2d al 3d, e di poter fare una passeggiata per i fori indossando un Oculus Go!

jumpjack
15-11-2017, 13:12
SDK "Maxst" con versione gratuita per uso non commerciale, con potenzialità apparentemente simili a Vuforia:
https://developer.maxst.com/Pricing

Anche qui c'è da capire come aggiungere un mio modello, se solo tramite app scritta in proprio o altro.

jumpjack
15-11-2017, 13:53
Tutorial Vuforia (free) + Unity (free) per app con tracker a piacere e modello 3d a piacere:
https://www.youtube.com/watch?v=khavGQ7Dy3c

jumpjack
26-12-2017, 16:57
Un altro importante contributo a questa nuova branca della scienza che è l'arechoricostruzione virtuale: le terme di caracalla!
Progetto "Caracalla IV dimensione" ("Caracalla IV dimensione",), curato dal CNR.

Per chi non lo sapesse, le terme di Caracalla sono fatte di "palazzoni" alti una cinquantina di metri!
Oggi sono rimasti solo i muri e pochi tetti, ma all'epoca, come ora si potrà finalmente vedere invece di immaginare, c'erano marmi, mosaici e statue.

http://www.arte.it/foto/600x450/6e/72991-6f3ccdb1ee547b7a24323b317a2462cc.jpg

...e io che ci sono andato appena due mesi fa! :doh: A saperlo prima! :muro:


Dal sito ufficiale:
La tecnologia si basa su un visore, all’interno del quale è inserito uno smartphone con uno specifico software. Con semplici comandi gestiti da un solo pulsante, l’apparecchio dotato di georeferenziazione, riprodurrà i luoghi dove si trova il visitatore con una prospettiva immersiva, coprendo cioè tutto lo spazio visivo.
I visori saranno disponibili all’ingresso delle Terme nel normale orario di apertura del monumento.
La visita, articolata in dieci tappe di cui sei con la realtà virtuale, si fonda su ricostruzioni filologiche delle Terme, basate sugli studi degli ultimi trenta anni e curate per la parte scientifica da Marina Piranomonte, direttore del monumento. Il progetto, a cui ha collaborato per l’ideazione tecnologica Francesco Antinucci del Consiglio Nazionale delle Ricerche, è stato coordinato da Francesco Cochetti di CoopCulture.
All’interno delle ricostruzioni digitali sono state inserite le immagini reali di alcune statue e decorazioni dell’impianto termale che oggi fanno bella mostra di sé in vari luoghi, tra cui il Museo Archeologico Nazionale di Napoli, la Reggia di Caserta, che hanno collaborato al progetto, e Piazza Farnese.

http://www.coopculture.it/events.cfm?id=801

In altre parole, credo che sia un Samsung Gear VR.


Via delle Terme di Caracalla, 52 Terme di Caracalla
09.00 - 16.30
Dall’ultima domenica di ottobre al 15 febbraio: 09.00 - 17.00
Dal 16 febbraio al 15 marzo: 09.00 - 17.30
Dal 16 marzo all’ultimo sabato di marzo: 09.00 - 19.15
Dall’ultima domenica di marzo al 31 agosto: 09.00 - 19.00
Dal 1 settembre al 30 settembre: 09.00 - 18.30
Dal 1 ottobre all’ultimo sabato di ottobre: Il lunedì 9.00 – 14.00
Chiuso 1 gennaio, 25 dicembre

Nota: Google Maps NON SA dove sia l'ingresso delle terme di Caracalla: mi ha fatto girare per mezz'ora intorno a un punto che non c'entra niente con l'ingresso...
QUESTO è il vero ingresso, presso il Largo Cavalieri di Colombo: link (https://www.google.it/maps/place/Terme+di+Caracalla/@41.8812569,12.4922114,159m/data=!3m1!1e3!4m5!3m4!1s0x132f61ce333e85d5:0x6a2b4006ea5b98dc!8m2!3d41.8790382!4d12.4924394)
Solo che... è una strada a senso unico, non ci si può entrare dal viale Terme di Caracalla! Che è uno stradone a 6 corsie non "parcheggiabile"!
Quindi l'unico modo sensato per arrivare qui in macchina e parcheggiare (gratuitamente) accanto alle terme è prendere Via Antonina da via Guido Baccelli (https://www.google.it/maps/place/Terme+di+Caracalla/@41.8801523,12.4902034,40m/data=!3m1!1e3!4m5!3m4!1s0x132f61ce333e85d5:0x6a2b4006ea5b98dc!8m2!3d41.8790382!4d12.4924394), e fare tutta la discesa fino all'ingresso.

zappy
27-12-2017, 08:34
...
Progetto "Caracalla IV dimensione" ("Caracalla IV dimensione",), curato dal CNR....

In altre parole, credo che sia un Samsung Gear VR.


Nota: Google Maps NON SA dove sia l'ingresso delle terme di Caracalla: ...

bel progetto. peccato che la tecnologia ormai sia 0% italiana (in questo caso 0% anche europea). sia sw che hw. che tristezza. :(
cmq molto bello il progetto.

ps: openstreetmap è più comprensibile. a naso si capisce che l'ingresso è qui (https://www.openstreetmap.org/?mlat=41.88069&mlon=12.49247#map=18/41.88070/12.49247). ;)

jumpjack
02-02-2018, 18:37
Ho trovato questa pagina di aggregazione di "virtualitaggini" :)
https://liveromeguide.wordpress.com/2017/08/23/roma-realta-virtuale-e-visite-interattive-ai-monumenti/

AceGranger
07-02-2018, 09:19
bel progetto. peccato che la tecnologia ormai sia 0% italiana (in questo caso 0% anche europea). sia sw che hw. che tristezza. :(



gia, e il fatto che il miglior software per fotogrammetria sia Russo, e non tipo americano o Giapponese, dovrebbe far riflettere su quanto poco stiamo facendo, contando che saremmo dovuti essere noi a sviluppare una cosa del genere, visto la vastita di reperti archeologici di cui siamo possessori.

Ahimè, sta per finire la pacchia: Autodesk Remake funzionerà solo fino al 30 novembre, dopodichè verrà disabilitata la funzione di elaborazione su cloud e il programma verrà sostituito da Autodesk Recap Photo, a pagamento, a partire da 40 dollari al mese!!!
Recap Photo funzionerà esclusivamente online... il che lascia supporre che probabilmente sarà comunque possibile continuare a usare Remake offline; ergo, sbrigatevi a scaricarlo! (sempre che il download sia ancora disponibile!)
Ma tenete presente che i requisiti minimi di sistema sono 16 GB di RAM e una scheda video nVidia.

Comunque esiste già anche il freeware 3df Zephyr, e anche per cellulare stanno comparendo diverse app.

https://knowledge.autodesk.com/support/recap/troubleshooting/caas/sfdcarticles/sfdcarticles/ReCap-Photo-Frequently-Asked-Questions.html

attualemnte, e credo che un bel po di tempo, continuera ad essere Photoscan, è il migliore in circolazione ,sia per funzionalita sia per precisione;


lo uso per fare le librerie 3D, e si riescono a tirare fuori oggetti di una qualita quasi indistinguibile dall'oggetto reale; bisogna pero partire da foto di qualita eccelsa, quindi serve dotarsi della macchiana fotografica giusta e degli obiettivi giusti.

zappy
07-02-2018, 09:33
gia, e il fatto che il miglior software per fotogrammetria sia Russo, e non tipo americano o Giapponese, dovrebbe far riflettere su quanto poco stiamo facendo, contando che saremmo dovuti essere noi a sviluppare una cosa del genere, visto la vastita di reperti archeologici di cui siamo possessori.
nel settore pubblico, e specificatamente nelle sovraintendenze, probabilmente a mala pena sanno usare word.
sw di questo genere non solo non vengono sviluppati, ma proprio non c'è neanche coscienza che si possano fare cose del genere, quindi figuriamoci (far) sviluppare un sw x farle. :(

...
lo uso per fare le librerie 3D, e si riescono a tirare fuori oggetti di una qualita quasi indistinguibile dall'oggetto reale; bisogna pero partire da foto di qualita eccelsa, quindi serve dotarsi della macchiana fotografica giusta e degli obiettivi giusti.
nel senso che produci librerie di oggetti 3D da rivendere, a partire da foto anzichè modellarli? :confused:

AceGranger
07-02-2018, 09:36
nel senso che produci librerie di oggetti 3D da rivendere,


per ora sono per uso interno



a partire da foto anzichè modellarli? :confused:


ni, dipende; il modello ottenuto va comunque sistemato o rimodellato da zero.

la fotogrammetria applicata all mondo del 3D serve principalmente per avere una texture "personalizzata" sull'oggetto estremamente reale, essendo a tutti gli effetti la realta.

jumpjack
07-02-2018, 13:21
gia, e il fatto che il miglior software per fotogrammetria sia Russo, e non tipo americano o Giapponese, dovrebbe far riflettere su quanto poco stiamo facendo, contando che saremmo dovuti essere noi a sviluppare una cosa del genere, visto la vastita di reperti archeologici di cui siamo possessori.



attualemnte, e credo che un bel po di tempo, continuera ad essere Photoscan, è il migliore in circolazione ,sia per funzionalita sia per precisione;


lo uso per fare le librerie 3D, e si riescono a tirare fuori oggetti di una qualita quasi indistinguibile dall'oggetto reale; bisogna pero partire da foto di qualita eccelsa, quindi serve dotarsi della macchiana fotografica giusta e degli obiettivi giusti.ho trovato un sacco di ricerche in pdf e un sacco di filmati che spiegano e dimostrano la fattibiltà della ricostruzione 3d addirittura in tempo reale (SFM - structure from motion), sempre da immagini monoscopiche, ma non riesco a trovare un singolo SW da scaricare, suggerimenti?

Ho trovato anche ricerche e algoritmi per la ricostruzione a partire da immagini a 360°, ma anche qui niente da scaricare...

Inviato dal mio SM-G930F utilizzando Tapatalk

zappy
07-02-2018, 14:08
per ora sono per uso interno
in che senso? :confused:

ni, dipende; il modello ottenuto va comunque sistemato o rimodellato da zero.
la fotogrammetria applicata all mondo del 3D serve principalmente per avere una texture "personalizzata" sull'oggetto estremamente reale, essendo a tutti gli effetti la realta.
ah, si ok, capito. :)

AceGranger
07-02-2018, 14:47
in che senso? :confused:



eh nel senso che per ora sono librerie personali che uso nei miei render.

AceGranger
07-02-2018, 14:55
ho trovato un sacco di ricerche in pdf e un sacco di filmati che spiegano e dimostrano la fattibiltà della ricostruzione 3d addirittura in tempo reale (SFM - structure from motion), sempre da immagini monoscopiche, ma non riesco a trovare un singolo SW da scaricare, suggerimenti?

Ho trovato anche ricerche e algoritmi per la ricostruzione a partire da immagini a 360°, ma anche qui niente da scaricare...

Inviato dal mio SM-G930F utilizzando Tapatalk


mmm, materiale da quel tipo di immagini non ne conosco, ma il punto è che tutte quelle ricostruzioni ti restituiranno sempre modelli altamente imperfetti, molto imperfetti.

es, anche NUKE è in grado di ricostruire modelli partendo da un video

https://www.youtube.com/watch?v=9CzTWWy80Vk

pero la qualita è sempre quella che è, ma in quel caso serve per una pre-visualizzazione e come riferimento della scena per i futuri effetti speciali.

per ricostruzioni ottime servono:

- tanti Mpixel e di qualita
- obiettivi nitidissimi
- focali con poche deformazioni
- Illuminazione stabile e il piu diffusa possibile
- tanta potenza di calcolo per tirare fuori una Dense Cloud precisa
- tanta potenza di calcolo per tirare fuori una Mesh "sensata"

visti questi punti, le foto 360 per loro natura sono il regno delle deformazioni e il real-time è anch'esso sinonimo di compromesso nell'elaborazione.


Attualmente, se lo scopo è ottenere un modello preciso e di qualita, il software migliore per la ricostruzione fotogrammetrica è photoscan, dove pero sara sempre e comunque necessario effettuare un retopology della mesh e un Unwrap manuale, perchè quelli automatici fanno sempre abbastanza schifo, pero con un po di lavoro e il workflow corretto si possono ottenere modelli di qualita fotografica pari al reale.


piccolo OT

ma tu jumpjack sei mica per caso molto ferrato in elettronica/arduino ? che sto facendo un sistema Pano 360° per scatatre le foto in automatico e stavo buttando giu lo schema arduino nano + driver stepper e mi sa che avevo bisogno di una correzione, perchè i miei ricordi di elettronica delle superiori sono andati mano a mano scemando :fagiano:

jumpjack
08-02-2018, 20:55
es, anche NUKE è in grado di ricostruire modelli partendo da un video

ma è gratis?

visti questi punti, le foto 360 per loro natura sono il regno delle deformazioni e il real-time è anch'esso sinonimo di compromesso nell'elaborazione.

no, non più, non siamo più ai tempi dello stitching... Adesso un'immagine 360°x235° la posso scattare in una volta sola con una "panocamera"... o con una lente super-fisheye Vinsic da 235° applicabile a un qualunque telefono. E la deformazione è uniforme, omogenea e calcolabile in ogni punto della foto.

ma tu jumpjack sei mica per caso molto ferrato in elettronica/arduino ? che sto facendo un sistema Pano 360° per scatatre le foto in automatico e stavo buttando giu lo schema arduino nano + driver stepper e mi sa che avevo bisogno di una correzione, perchè i miei ricordi di elettronica delle superiori sono andati mano a mano scemando :fagiano:
sì, se vuoi posso aiutarti con arduino, ma come ti dicevo, non c'è più bisogno di fotocamere multiple per fare foto a 360°.
Al momento sto invece cercando di trovare un algoritmo per estrarre da un video a 360° un gruppo di video "piatti" che restano centrati su un punto...
Mica facile...

AceGranger
08-02-2018, 22:53
ma è gratis?


no è a pagamento; è uno dei softwre pro piu utilizzati in compositing per VFX :stordita:


no, non più, non siamo più ai tempi dello stitching... Adesso un'immagine 360°x235° la posso scattare in una volta sola con una "panocamera"... o con una lente super-fisheye Vinsic da 235° applicabile a un qualunque telefono. E la deformazione è uniforme, omogenea e calcolabile in ogni punto della foto.


si, ma il problema è che la dense cloud viene comunque calcolata basandosi sui pixel delle foto, e nel caso delle foto 360 con fortissime deformazioni, anche applicando l'algoritmo "inverso" non otterrai mai la precisione che avresti utilizzando foto fatte con un 50/70/90 mm; piu si scende con le focali e piu aumenta l'errore %; con le foto 360° la precisione va proprio a donnine.

dipende sempre uno che precisione vuole e cosa deve farci con il modello.


l'ideale è scattare con obiettivi che permettono di ottenere dei RAW che necessitano il minor numero di elaborazione possibile, quindi pochissime aberrazioni sferiche, pochissime aberrazioni cromatiche e il piu risoluto possibile.

essendo poi la Dense Cloud calcolata sui singoli pixel, le foto devono contenere anche il minor quantitativo possibile di noise che è, assieme allo sfocato e alle deformazioni, il nemico principale della precisione.


sì, se vuoi posso aiutarti con arduino


thx 1000 ! ora sistemo le ultime cose e poi apriro un thread, cosi magari potra servire anche ad altri.


ma come ti dicevo, non c'è più bisogno di fotocamere multiple per fare foto a 360°.


si le ho viste le cam 360, ma la qualita ( per me ) è pessima; quelle piu belle costano intorno ai 2K di euro ma sono anche di difficile reperimento in Italia.

avendo gia una A7RII e obiettivi ottimi, preferisco fare io a mano e avere la mia foto 360° da 100 MPixel di qualita :D, senza pero avere lo sbatti di stare li a fare le foto a mano :stordita:.


Al momento sto invece cercando di trovare un algoritmo per estrarre da un video a 360° un gruppo di video "piatti" che restano centrati su un punto...
Mica facile...


cioè, se non ho capito male, tu vuoi:

- dividere il video 360 in, ipotiziamo, 4 aree
- applicare una deformazione inversa e ottenere 4 video piatti
- e questi video piatti non devono soffrire di shaking, diciamo come se fossero girati con una cam stabilizzata da un gimbal.

jumpjack
09-02-2018, 18:41
si, ma il problema è che la dense cloud viene comunque calcolata basandosi sui pixel delle foto, e nel caso delle foto 360 con fortissime deformazioni,

Scusa ma non ci sono molte più deformazioni in una "foto 360" ottenuta incollando insieme 10 foto piatte, piuttosto che in una "foto 360" fatta con un unico scatto?!?



cioè, se non ho capito male, tu vuoi:

- dividere il video 360 in, ipotiziamo, 4 aree
- applicare una deformazione inversa e ottenere 4 video piatti
- e questi video piatti non devono soffrire di shaking, diciamo come se fossero girati con una cam stabilizzata da un gimbal.
Non ha importanza se il video è "mosso", basta che non sia sfocato; l'algoritmo di ricostruzione 3d non ha problem a trovare punti in comune tra due fotogrammi vicini.

Un tizio che scrive plugin per imagemagick me ne ha indicato uno che fa questo "spianamento della sfera", ma non ho ancora avuto modo di provarlo, linux mi manda ai matti...
http://www.imagemagick.org/discourse-server/viewtopic.php?t=31809
https://www.imagemagick.org/discourse-server/viewtopic.php?f=1&t=28289&start=15

Quella pagina di facebook linkata nel secondo thread l'ho vista adesso che ho ripescato il thread dopo un po', chissà che roba è...

Comunque, intanto ho trovato un paio di SDK che sembrerebbero essere free e interesanti per creare app AR:
VoidAR (https://www.voidar.net/sdk_E.php)
EasyAR (https://www.easyar.com/view/download.html)

AceGranger
09-02-2018, 19:14
Scusa ma non ci sono molte più deformazioni in una "foto 360" ottenuta incollando insieme 10 foto piatte, piuttosto che in una "foto 360" fatta con un unico scatto?!?



mmmm no, ma comunque non uso le foto 360° per la fotogrammetria;le foto 360° le uso per altri scopi :); per la fotogrammetria uso solo obiettivi fissi.

Scusa ma non ci sono molte più deformazioni in una "foto 360" ottenuta incollando insieme 10 foto piatte, piuttosto che in una "foto 360" fatta con un unico scatto?!?



Non ha importanza se il video è "mosso", basta che non sia sfocato; l'algoritmo di ricostruzione 3d non ha problem a trovare punti in comune tra due fotogrammi vicini.

Un tizio che scrive plugin per imagemagick me ne ha indicato uno che fa questo "spianamento della sfera", ma non ho ancora avuto modo di provarlo, linux mi manda ai matti...
http://www.imagemagick.org/discourse-server/viewtopic.php?t=31809
https://www.imagemagick.org/discourse-server/viewtopic.php?f=1&t=28289&start=15

Quella pagina di facebook linkata nel secondo thread l'ho vista adesso che ho ripescato il thread dopo un po', chissà che roba è...

Comunque, intanto ho trovato un paio di SDK che sembrerebbero essere free e interesanti per creare app AR:
VoidAR (https://www.voidar.net/sdk_E.php)
EasyAR (https://www.easyar.com/view/download.html)

qui le cose si fanno troppo difficili per me :fagiano:; l'AR è interessante ma per ora preferisco la VR, attualmente meno problematica da inserire nel workflow.

jumpjack
15-02-2018, 19:22
Ed ecco spuntare finalmente un'app di realtà aumentata di Google (https://play.google.com/store/apps/developer?id=Research+at+Google)che però non richiede per forza un telefono compatibile con ex-Tango (ora ARcore):
https://play.google.com/store/apps/details?id=com.google.android.apps.motionstills&hl=it

E' solo una banalissima demo, che include ANCHE un test di realtà aumentata, ma funziona veramente bene: non serve nessun marker, basta inquadrare... qualunque cosa, e cliccare su una qualunque superficie per schiaffarci sopra un oggetto virtuale, potendogli poi girare intorno e scattare foto!


Ma comunque hanno intanto anche esteso la compatibilità di ARCore con la versione , includendo ora anche i Samsung S7:
https://github.com/google-ar/arcore-android-sdk/releases

Ho provato un paio di app, e hanno un che di... magico! :eek:
Alcune non partono, alcune partono ma crashano, altre partono, non crashano... ma non funzionano. Sono ancora lavori in corso... comunque eccone una che funziona:
https://play.google.com/store/apps/details?id=com.hl3hl3.arcoremeasure&hl=it

Serve a misurare "virtualmente" oggetti del mondo reale; non so come ci riesca senza nessun training e nessuna regolazione... ma funziona!:eek:

Qui spiegano un po' la tecnologia:
https://mobile-ar.reality.news/news/google-developer-days-sheds-some-light-arcore-0179851/

Praticamente ARCore effettua una fusione dei dati di accelerometro e giroscopio con quelli della telecamera, che serve come riferimento per correggere la deriva naturale dei sensori.

AceGranger
15-02-2018, 20:22
il problma è che sono tutte troppo in beta; ci vorrebbero piu sensori e piu precisi; cosi siche sarebbe sfruttabile l'AR

jumpjack
16-02-2018, 13:00
il problma è che sono tutte troppo in beta; ci vorrebbero piu sensori e piu precisi; cosi siche sarebbe sfruttabile l'ARal contrario, il bello di ARcore è che non serve nessun sensore aggiuntivo. è l'inizio di una rivoluzione! finora per registrare i movimenti laterali servivano o uno stock di sensori aggiuntivi esterni, o due telecamere aggiuntive a bordo o 2 telecamere esterne, e nel secondo caso non potevi uscire da un'area 3x3 metri.
Penso che streetview cambierà parecchio nei prossimi anni! (o mesi?)

Inviato dal mio SM-G930F utilizzando Tapatalk

jumpjack
16-02-2018, 13:03
al contrario, il bello di ARcore è che non serve nessun sensore aggiuntivo. è l'inizio di una rivoluzione! finora per registrare i movimenti laterali servivano o uno stock di sensori aggiuntivi esterni, o due telecamere aggiuntive a bordo o 2 telecamere esterne, e nel secondo caso non potevi uscire da un'area 3x3 metri.
Penso che streetview cambierà parecchio nei prossimi anni! (o mesi?)

Inviato dal mio SM-G930F utilizzando Tapatalksto riempiendo casa di mobili virtuali con l'app "Alice ARCore", :-) è una cosa assurda!
E "ARCore Measure"? Permette di misurare oggetti reali senza bisogno di calibrazione o oggetti di riferimento! E senza sensori esterni!
Sembra fantascienza, o magia, o un miracolo... secondo in cosa si crede! ;-)

Inviato dal mio SM-G930F utilizzando Tapatalk

El Alquimista
17-02-2018, 09:06
E "ARCore Measure"?

mi fai venire le fantasie poi ... :(
il mio tel non è supportato

chissà quali e come usa i sensori interni !!

Supported devices:
Google Pixel, Google Pixel XL, Samsung Galaxy S8
(https://developers.google.com/ar/discover/)

========
Distance is calculated by the tx ty tz of two pose. In my experience, I use Google Pixel, sometimes the result of arcore is only 1~2cm different from the result of a ruler in real world, but sometimes two results will differ by more then 10cm.

jumpjack
21-02-2018, 07:09
no, è solo una cosa talmente nuova che non si è ancora prepagata su tutti i siti:
https://developers.google.com/ar/discover/#supported_devices
Supported Devices
ARCore is designed to work on a wide variety of qualified Android phones running N and later. During the developer preview, ARCore supports the following devices:

Name Model
Google Pixel 2 All models
Google Pixel 2 XL All models
Google Pixel All models
Google Pixel XL All models
Samsung Galaxy Note8 SM-N9508, SM-N950F, SM-N950N, SM-N950U, SM-N950W, SM-N950X, SM-SC01K, SM-SCV37
Samsung Galaxy S8+ SM-G955F, SM-G955N, SM-G955U, SM-G955W, SM-G955X, SM-SC03J, SM-SCV35
Samsung Galaxy S8 SM-G950U, SM-G950N, SM-G950F, SM-G950FD, SM-G950W, SM-G950U1
Samsung Galaxy S7 SM-G930A, SM-G930F, SM-G930K, SM-G930L, SM-G930P, SM-G930R
SM-G930S, SM-G930T, SM-G930U, SM-G930V, SM-G930W

El Alquimista
21-02-2018, 14:47
E "ARCore Measure"? Permette di misurare oggetti reali senza bisogno di calibrazione o oggetti di riferimento! E senza sensori esterni!
Sembra fantascienza, o magia, o un miracolo... secondo in cosa si crede! ;-)


veramente interessante
aspetterò la disponibilità per il mio device

jumpjack
03-03-2018, 18:32
Google ARCore esce dalla fase beta/preview e passa in versione 1.0.
https://www.blog.google/products/google-vr/announcing-arcore-10-and-new-updates-google-lens/

Modelli supportati:
Google’s Pixel, Pixel XL, Pixel 2 and Pixel 2 XL; Samsung’s Galaxy S8, S8+, Note8, S7 and S7 edge; LGE’s V30 and V30+ (Android O only); ASUS’s Zenfone AR; and OnePlus’s OnePlus 5

Pare che ora supporti pareti non orizzontali, ma non ho ancora trovato demo in merito.

jumpjack
22-04-2018, 06:54
Novità tecno-archeologiche:
"Horti farnesiani" https://www.coopculture.it/events.cfm?id=846#
Casa di Augusto e Livia https://roma.corriere.it/notizie/cronaca/18_aprile_20/roma-riscoperta-dell-urbe-luci-raccontano-case-augusto-livia-1d6f5004-44c3-11e8-af14-a4fb6fce65d2.shtml?refresh_ce-cp

El Alquimista
22-04-2018, 08:32
Casa di Augusto e Livia https://roma.corriere.it/notizie/cronaca/18_aprile_20/roma-riscoperta-dell-urbe-luci-raccontano-case-augusto-livia-1d6f5004-44c3-11e8-af14-a4fb6fce65d2.shtml?refresh_ce-cp

l'ho visto in Tv, figo :)
se passo da Roma ci faccio un salto

jumpjack
23-04-2018, 09:25
l'ho visto in Tv, figo :)
se passo da Roma ci faccio un salto
Usano videoproiezioni o visori VR?

El Alquimista
23-04-2018, 16:11
purtroppo ho solo visto di sfuggita e non ascoltato
proiezione in continua metamorfosi :p
la proiezione su pavimento e pareti dava un effetto 3D
non so perchè, ma ho avuto la sensazione che ci sia stato anche un complesso gioco di luci laser , ma non saprei perchè il mondo degli effetti di scena non li conosco.

.

jumpjack
28-04-2018, 15:16
Klimt Experience Roma
Dal 10/02/2018 al 10/06/2018
Ospedale delle Donne, Piazza di San Giovanni in Laterano 74, Roma
Proiezioni immersive a 270° e con visori GearVR
http://www.romeguide.it/mostremobileroma.php?id=6842

VR EXPERIENCE
Nel prezzo è incluso anche l'utilizzo del VR Experience, visore multimediale che permette un'esperienza di realtà virtuale con gli Oculus Samsung Gear VR che per la prima volta al mondo viene proposta ai visitatori di una mostra dedicata a Gustav Klimt. La app, realizzata in esclusiva per Klimt Experience dagli sviluppatori di Orwell, letteralmente consente di entrare all’interno di quattro celebri opere di Klimt percependone tridimensionalmente ogni dettaglio figurativo e cromatico.

jumpjack
02-05-2018, 08:43
E' appena uscito il visore Oculus Go.
La novità rispetto al precedente Oculus Rift è che è standalone senza fili, cioè non richiede la connessione cablata o WiFi a un PC per funzionare.

Ci sono due caratteristiche importanti da considerare nei visori VR:

1) Numero di gradi di libertà (Degrees Of Freedom - DOF) del sistema di tracking:
- se sono 3, nel mondo virtuale si può solo ruotare la testa sui tre assi, mentre lo spostamento sui tre assi non è rilevato, quindi l'immersività è limitata;
- se sono 6, ci si può anche muovere nell'ambiente, anzichè limitarsi a guardarsi intorno.

2) Tipo di tracking:
- "dall'esterno", realizzato cioè tramite telecamere esterne che inquadrano il visore e ne calcolano quindi la collocazione nello spazio virtuale, che quindi ha un'estensione limitata alla distanza tra le telecamere;
- "dall'interno" (inside-out), realizzato in vari modi, e che permette, in teoria, di girovagare su tutto il pianeta senza limitazioni. :-)

Il "visore" perfetto, che cioè dà il massimo realismo e la massima immersività, deve avere queste caratteristiche:
- Standalone (=niente fili o connessioni Wifi)
- 6 DOF (=tracciamento di rotazione e spostamento)
- inside-out tracking (spazio di movimento illimitato)

Quelli della Oculus hanno queste caratteristiche:

Oculus rift: Cablato (tethered), richiede PC, 6 DOF, tracking outside-in
Oculus Go: Standalone, 3 DOF, tracking inside-out, senza cellulare
Gear VR: Come Oculus Go, ma necessita cellulare
Oculus Santa Cruz (non ancora disponibile): Standalone, 6 DOF, tracking inside-out, senza cellulare


Notare però che la recente invenzione della ricostruzione 3d dell'ambiente in tempo reale tramite singola telecamera di bordo (*) potrebbe rendere possibile realizzare un visore basato su cellulare anzichè su elettronica proprietaria come il Santa Cruz, in quanto il cellulare potrebbe calcolare autonomamente la propria posizione nell'ambiente reale, e usarla per impostare la propria posizione nell'ambiente virtuale.


(*)implementata in Android tramite le librerie AR-Core e su iPhone tramite librerie AR-kit, e chiamata SLAM - "simultaneous localization & mapping"

jumpjack
02-05-2018, 11:23
Altri visori:

Samsung/Oculus GearVR (richiede cellulare) - 3 DOF
Google Daydream (richiede cellulare) - 6 DOF
Lenovo Mirage Solo con tecnologia Daydream (standalone) - 6 DOF
HTC Vive (richiede PC) - 6 DOF, tracking outside-in
HTC Vive "Focus" (standalone) - 6 DOF, tracking inside-out
Pico Goblin (standalone) - 3 DOF
Pico Neo (standalone) - 6 DOF
Magic Leap One (???) - con Realtà Aumentata
Sony PlayStation VR (???)
Acer Mixed Reality headset (???) - Windows Mixed Reality
Samsung Odyssey (???) - Windows Mixed Reality
Pimax 8K

jumpjack
02-05-2018, 13:29
Nuovo motore AR per Android: uSensAR (https://en.usens.com/products/usensar/)

Nuovo tool di sviluppo per applicazioni AR, basato su ARCore: ViroCore (https://viromedia.com/virocore/)

Browser sperimentale per fare prove e test vari con l'AR su Android: WebARonARCore (https://github.com/google-ar/WebARonARCore) (link diretto ad APK (https://github.com/google-ar/arcore-android-sdk/releases/download/sdk-preview/arcore-preview.apk))

App di prova per WebARonArCore: https://developers.google.com/ar/develop/web/quickstart

jumpjack
21-05-2018, 19:32
Finalmente la tecnologia si è evoluta fino a soddisfare le mie esigenze. :-)
Adesso sketchfabb non solo non richiede più nessun marker per posizionare un oggetto nel mondo reale (grazie alle librerie di realtà aumentata Arcore di Google), ma permette di posizionare, ridimensionare e ruotare a piacimento gli oggetti, così ho preparato una versione dei modelli appositamente ridotta per la realtà aumentata (quindi senza mausoleo, alberi finti, strada, automobili,....), e sono andato sul posto a fare esperimenti.

Purtroppo solo una volta arrivato lì ho scoperto un piccolo limite dell'app, che non permette di posizionare verticalmente l'oggetto al di sotto della coordinata Z=0, ma solo al di sopra (mah?), quindi i modelli non sempre sono collocati in modo esatto e preciso nelle immagini che seguono; però si ha già un'idea della potenzialità del sistema.
Soprattutto, ciò che colpisce è che il sistema riesce a mantenere il tracking anche a decine di metri di distanza: ho infatti effettuato il posizionamento del modello quando mi trovavo sullo spigolo sinistro dell'iscrizione sul marmo, spigolo che coincide esattamente col centro di rotazione del modello; la teca del Morpurgo era lunga 40 metri, quindi il cellulare ha mantenuto il tracking per più di 30 metri! A quella distanza, però, diventa difficile fare correzioni, perché il sistema di posizionamento orizzontale dell'app è un po' strampalato: non si può muovere liberamente l'oggetto, si può solo cliccare il punto del piano di appoggio in cui deve venire a trovarsi il centro dell'oggetto! Stando a 10cm di distanza dallo spigolo dell'iscrizione era facile… stando a 60 metri un po' meno! (ultima immagine)


Comunque già così le foto sono interessanti, e permettono di avere un po' l'idea di com'era il posto prima del disastro meier.
...solo che, dopo un'ora di test ed esperimenti, non solo il cellulare scottava come una stufa e la batteria era scesa dal 100% al 20%, ma la collera divina si è abbattuta su di me per aver rivangato la storia proibita, riversandomi addosso un diluvio universale che penso abbia allagato mezza Roma.

Quindi per vedere la Teca esattamente posizionata, vista da varie angolazioni, e nelle 4 versioni (rossa 1938, sacchetti 1940, muri 1950 e restauro 1970)… dovrete aspettare la prossima puntata!

https://jumpjack.files.wordpress.com/2018/05/screenshot_20180520-163551648132263.png

https://jumpjack.files.wordpress.com/2018/05/screenshot_20180520-1645051632741856.png


Posizionamento verticale errato(ma dimensioni e orientamento corretti):
https://jumpjack.files.wordpress.com/2018/05/screenshot_20180520-164839315828141.png


"Barando" un po', cioè rilavorando l'immagine a tavolino, ecco come sarebbe dovuta invece venire la foto:
https://jumpjack.files.wordpress.com/2018/05/test-ar-postprod.png
Dimensioni e orientamento corretti, ma probabile errore di posizionamento orizzontale (oltre a quello verticale sbagliato), o perdita di precisione nel tracking:
https://jumpjack.files.wordpress.com/2018/05/screenshot_20180520-1650151880645836.png

...ed ecco la collera divina…. :lol:

https://www.youtube.com/watch?v=tJKPpN7tJxs

Ma io persevero!

jumpjack
13-06-2018, 18:12
Anche se non si tratta di preservazione dei monumenti, questa notizia non può mancare in questo thread su realtà virtuale e aumentata.
Nel 2019 dovrebbe uscire un videogioco a dir poco pazzesco per visori VR: sincronizzandosi con le telemetrie reali delle gare di Formula E, permetterà ai giocatori di correre virtualmente in pista insieme ai veri piloti, in tempo reale!! :eek:

https://www.formulae-news.com/single-post/2018/06/08/Formula-E-arriva-il-Videogame

Una follia a cui stanno lavorando a quanto pare da 5 o 6 anni… quando ancora la tecnologia era troppo indietro (Google Arcore non esisteva ancora) e troppo costosa (più di 1000 euro per un visore), e pare che nel 2019 sarà finalmente possibile lanciare sul mercato questa assurda app.

Secondo me bisognerà aspettare lo "zero-lag" del "5G"... ma apprezzo lo sforzo e attendo con impazienza!

jumpjack
04-07-2018, 11:41
Sembra ci sia una nuova "tendenza" nel mondo della realtà aumentata: piuttosto che aspettare, forse inutilmente, che escano cellulari con due telecamere distanti 5-10 cm tra loro, che permetterebbero di realizzare realtà aumentata stereoscopica, ecco l'idea geniale: i visori AR tramite specchio semiriflettente!

https://cdn.shopify.com/s/files/1/2447/1271/products/holokit_sq_02.15_1_56c3bd10-a7a0-4fb5-b5e0-2380047eb741_1000x1500.jpg

https://images-na.ssl-images-amazon.com/images/I/414NqoYiMYL._SL500_AC_SS350_.jpg

https://images-na.ssl-images-amazon.com/images/I/41bT+OncI+L._AC_US218_.jpg

Certo non è che siano proprio eleganti da indossare... :D
https://images-na.ssl-images-amazon.com/images/I/71e%2BPnzDugL._SL1001_.jpg

E avranno di sicuro problemi di "ghosting" in immagini ad alto contrasto, a causa della doppia riflessione.
Però sembra una cosa interessante da provare!
Ma bisogna capire quali app sono compatibili.

Alcuni nomi di visori:

HoloKit: Cardboard-like Augmented / Mixed Reality Headset
Docooler AR Headset Box Glasses 3D Holographic Hologram Display
Xhope AR Headset, AR Box FOV 90°+ Augmented Reality Holographic Projection AR Viewer
OANDE Movie Game Headset Viewer HD Smartphone Screen Glasses FOV 69° Multi-scene AR Glasses
Komire 3D AR Headset, Open Augmented Reality Goggles with Ultra-wide FOV 69 Degree
AR Headset, AR Box FOV 50°+ Augmented Reality Holographic Projection AR Viewer Smart Helmet
Egal FOV 69°AR Viewer Headset Smart Augmented Reality Glasses
fosa AR Headset AR Glasses Augmented Reality Game Movie Headsets Viewer


Il primo è tra i più economici... anche perchè in teoria si può pure costruire da soli, proprio come si fa(ceva) con Google Cardboard... a patto però di trovare uno specchio semiriflettente! Forse per una prima prova può bastare un semplice pezzo di vetro e un test serale?!? :mbe:

Quello che non capisco di Holokit è che il sito dice che il "campione gratuito" ordinabile serve solo a chi sa programmare in Unity, e che l'app per Android pesa 650 MB! :confused: Non l'ho ancora scaricata, chissà cosa hanno messo in questi 650 MB...

jumpjack
05-07-2018, 19:38
Oltre a costare poco, l'holokit è pure opensource, si puà autocostruire; oltre al cartone servono due lenti di Fresnel e uno "specchio acrilico con superficie a prima riflessione" (che elimina il problema del ghosting cui accennavo).
Qui ci sono tutte le istruzioni, però i link funzionano solo scaricando il file, non leggendolo su github:
https://github.com/holokit/holokit_headkit/blob/master/Arcylic.pdf

In realtà, tutto sommato mi pare che costi meno comprarselo già fatto per 15 euro piuttosto che comprare i pezzi in 4 siti diversi... pagando 40 euro solo di spedizione!

------------

Detto questo, vedo che intanto il framework Google ARCore si sta evolvendo rapidamente: in pochi mesi è passato da preview 1 a preview 2 a release 1.0.0, 1.2.0 e ora è a 1.3.0, con queste novità:

Da 1.2.0:

Cloud Anchors API. Enables developers to build shared AR experiences across iOS and Android, by allowing anchors created on one device to be transformed into cloud anchors and shared with users on other devices.
Augmented Images API. Enables ARCore apps to detect and track images.
Vertical plane detection. ARCore now detects both horizontal and vertical planes.

I changelog tra le altre versioni non sono molto chiari, ma questa cosa delle superfici verticali è un bel passo in avanti.
Il prossimo passo interessante sarà l'implementazione delle occlusioni (oggetti virtuali nascosti dietro a oggetti reali).

jumpjack
14-07-2018, 09:59
Perchè limitarsi alla preservazione virtuale dei monumenti SULLA TERRA? :D

https://aliveuniverse.today/media/k2/items/cache/thumbs/e75dd9955407ad7f1c238e520276f85c_L_800x400.jpg
https://sketchfab.com/models/f442cd26d4ce46f488c2f3bcac90c002

jumpjack
14-07-2018, 10:43
Luna:
https://sketchfab.com/achaikin

Un piccolo passo per un uomo:
https://sketchfab.com/models/35e088d3ec364577b8a9b12f19ce73cb

Marte:
https://sketchfab.com/amandaostwald
https://sketchfab.com/djellison

jumpjack
05-08-2018, 17:49
Dopo le Terme di Caracalla, dal 2 agosto 2018 ecco anche le Terme di Diocleziano in realtà aumentata con visori 3d a 360°.

https://www.repstatic.it/content/localirep/img/rep-roma/2018/08/01/173455468-aa93403c-722a-4853-9881-cf8e71d713bd.jpg

https://www.coopculture.it/events.cfm?id=922


LE TERME DI DIOCLEZIANO CON UNA VISITA IMMERSIVA IN 3D TRA GLI STRAORDINARI RESTI DEL GRANDE IMPIANTO D’ETÀ IMPERIALE COME CI APPARE OGGI E INSIEME COME APPARIVA AI ROMANI DEL 300 D.C.
PUO' ESSERE UTILIZZATA DA BAMBINI DAI 7 ANNI IN SU CON LA SUPERVISIONE DI UN ADULTO.

ALCUNI UTENTI POTREBBERO AVER BISOGNO DI TOGLIERE GLI OCCHIALI PRIMA DI INDOSSARE IL VISORE PER LA REALTA' VIRTUALE.

TARIFFE
diocleziano IIID € 5,00
(non include il biglietto d'ingresso)

diritto di prenotazione € 2,00

AVVISO
Diocleziano IIID è disponibile in italiano e inglese.

jumpjack
13-02-2019, 18:02
Pare che stiano per arrivare sul mercato Oculus Quest e HTC Vive Cosmo, visori VR con 6 gradi di libertà invece che 3 come le versioni precedenti, cioè in grado di supportare sia la rotazione della testa sui 3 assi che lo spostamento nelle 3 dimensioni.

Un grosso passo in avanti: potenzialmente significherà poter passeggiare in mezzo alle rovine vedendo in sovraimpressione le immagini di realtà aumentata.
Spero solo che abbiano DUE telecamere, altrimenti niente 3d-stereo ma solo simil-3d.

Sul Quest ho trovato una notizia anche qui su HWU (https://www.hwupgrade.it/news/periferiche/oculus-quest-primo-sistema-vr-6dof-all-in-one_78234.html), e questo (https://www.hwupgrade.it/forum/showthread.php?threadid=2864279)è il thread; sul Cosmos ancora no, per ora dovete accontentarvi di un articolo in inglese. (https://www.techradar.com/news/first-look-htc-cosmos)

jumpjack
14-02-2019, 11:12
https://ancientandrecent.com/wp-content/uploads/2018/03/35-1-1024x614.jpg

Tour del Colosseo in realtà aumentata con Samsung S7 + visore Oculus:
https://www.getyourguide.it/roma-l33/colosseo-tour-prioritario-in-autonomia-con-realta-virtuale-t115732/?utm_force=0

https://ancientandrecent.com/rome-3d-virtual-tours/


Se è realtà virtuale o aumentata non lo so... perchè non lo sanno manco loro. :-)

jumpjack
16-02-2019, 10:04
Non so da quanto tempo esista, io l'ho scoperto solo ora: "Google Expeditions (https://play.google.com/store/apps/details?id=com.google.vr.expeditions&hl=it)", in italiano "Google esplorazioni", che offre quasi 1000 esperienze tra VR e AR! :eek:

Elenco esperienze disponibili:
https://docs.google.com/spreadsheets/d/1uwWvAzAiQDueKXkxvqF6rS84oae2AU7eD8bhxzJ9SdY/htmlview?sle=true#gid=0

Ed ecco poi un'utilissima pagina con le calibrazioni precise di decine e decine di visori cardboard; senza una calibrazione precisa si rischia di perdere totalmente l'effetto immersività:

http://www.sitesinvr.com/viewer/viewer-benchmark.htm

L'autore della pagina mi ha detto purtroppo che non è possibile calibrare l'app GearVR per usarla con un visore cardboard; di per sè si può forzare l'applicazione a partire anche senza collegare il cell al visore (in modalità sviluppatore/debug), ma la distorsione è davvero tanta e l'effetto immersività si perde.

Ecco infatti un confronto tra la distorsione del visore GearVR e quella di un VRbox (quest'ultimo non ha niente di speciale... tranne il fatto che è quello che ho io :-) )

GearVR:
http://www.sitesinvr.com/viewer/gearvr/curves_archive_dist.png
http://www.sitesinvr.com/viewer/gearvr/curves_archive_dist.png
http://www.sitesinvr.com/viewer/gearvr/qrcode.png
http://www.sitesinvr.com/viewer/gearvr/index.html

VRBox:
http://www.sitesinvr.com/viewer/vrbox/curves_archive_dist.png
ttp://www.sitesinvr.com/viewer/vrbox/curves_archive_dist.png
http://www.sitesinvr.com/viewer/vrbox/qrcode.png
http://www.sitesinvr.com/viewer/vrbox/fisheye-mini.jpg

Inquadrando i QR code con l'apposita app "Sites in VR (http://www.sitesinvr.com/viewer/for-android.jpg)" vengono impostati i parametri corrispondenti a quel visore, e verranno usati per tutte le applicazioni di tipo "google cardboard". Tutte quelle già presenti sul telefono vengono automaticamente raggruppate e visualizzate nell'app ufficiali cardboard (https://play.google.com/store/apps/details?id=com.google.samples.apps.cardboarddemo).

Un paio di raccomandazioni tecniche di Google agli sviluppatori:
Performance recommendations:
In 6DoF, apps should target 75 FPS. Drops below 60 FPS will have noticeable artifacts and cause user discomfort.
In 3DoF, apps should target 60 FPS. Drops below 45 FPS will have noticeable artifacts and cause user discomfort.
https://developers.google.com/vr/discover/async-reprojection

E la spiegazione della differenza tra 3 e 6 gradi di libertà:
https://developers.google.com/vr/discover/degrees-of-freedom
Daydream View features a 3DoF headset and 3DoF controller, commonly referred to as "3.3".
Daydream Standalone features a 6DoF headset and 3DoF controllers, commonly referred to as "6.3".

Rei & Asuka
19-04-2019, 10:58
Ciao, vedo ora la discussione... La leggo con calma intanto ti ho addato su Sketchfab!
Intanto ti chiedo un consiglio: un qualcosa simile a Skf, ma con più spazio? Ho un modello di casa con intorno da 700MB per un cliente :eek: dove posso uploadarlo senza svenarmi?

jumpjack
19-04-2019, 11:08
Ciao, vedo ora la discussione... La leggo con calma intanto ti ho addato su Sketchfab!
Intanto ti chiedo un consiglio: un qualcosa simile a Skf, ma con più spazio? Ho un modello di casa con intorno da 700MB per un cliente :eek: dove posso uploadarlo senza svenarmi?

Be' se hai un cliente vuol dire che... può pagare lui! :-)
Purtroppo non conosco altri siti del genere, magari, anch'io avrei un paio di megamodelli da caricare. :(

zappy
19-04-2019, 11:19
ma che razza di modelli fate?!? pesantissimi! :D
sicuri che siano ben ottimizzati? 700mb di modello (escl texture) mi sembrano davvero tanti.

jumpjack
19-04-2019, 13:31
ma che razza di modelli fate?!? pesantissimi! :D
sicuri che siano ben ottimizzati? 700mb di modello (escl texture) mi sembrano davvero tanti.

il (mio) problema è che Sketchfab non accetta modelli contenenti un singolo oggetto duplicato 1000 volte: bisogna smembrarlo in 1000 oggetti separati. Così un modello di 7 MB diventa di 700MB....
Volevo provare a caricare i modelli del Foro Traiano e del Foro di Cesare, scaricabili da sketchup 3d warehouse, per passeggiarci in realtà aumentata, ma ho scoperto questa seccatura. :mad:
Calcola che in ognuno ci sono decine di colonne corinzie, e ogni colonna ha un centinaio di foglioline tutte ricamate...

zappy
19-04-2019, 20:20
il (mio) problema è che Sketchfab non accetta modelli contenenti un singolo oggetto duplicato 1000 volte: bisogna smembrarlo in 1000 oggetti separati. Così un modello di 7 MB diventa di 700MB....
Volevo provare a caricare i modelli del Foro Traiano e del Foro di Cesare, scaricabili da sketchup 3d warehouse, per passeggiarci in realtà aumentata, ma ho scoperto questa seccatura. :mad:
Calcola che in ognuno ci sono decine di colonne corinzie, e ogni colonna ha un centinaio di foglioline tutte ricamate...
ah, ecco, mi pareva che fosse un problema di gestione dei duplicati...
non conosco sketchfab, uso altri siti, ma mi pare che il problema dipenda dal formato del file più che dal "negozio"... no? o sketchfab converte i modelli in un suo formato?!? :confused:

jumpjack
23-04-2019, 12:36
ah, ecco, mi pareva che fosse un problema di gestione dei duplicati...
non conosco sketchfab, uso altri siti, ma mi pare che il problema dipenda dal formato del file più che dal "negozio"... no? o sketchfab converte i modelli in un suo formato?!? :confused:

Sketchfab accetta vari formati ma non SKP, e una volta che ha digerito i file che carichi, li converte un formato strampalato (estensione di 4 caratteri) che non ho visto da nessun'altra parte.
Esiste anche un plugin per esportare direttamente da Sketchup a Sketchfab... ma dopo averlo lasciato lavorare oltre 6 ore senza risultati, sono passato alla conversione manuale... scoprendo così che in 6 ore forse si riesce a rendere "uniche" una decina di colonne su 200! :(

jumpjack
23-04-2019, 14:55
a proposito... che siti usi? Supportano la realtà aumentata?

Rei & Asuka
23-04-2019, 15:48
Queste sono gli unici che ho potuto caricare...
https://sketchfab.com/EpocheModerne

zappy
23-04-2019, 18:04
a proposito... che siti usi? Supportano la realtà aumentata?
in genere scarico qualche modello per vedere come sono fatti, ma non è che faccia grande uso di questi spazi di scambio. sulla RA non so proprio che suggerire :)

jumpjack
01-05-2019, 09:53
Il 21 maggio entreranno in commercio due visori VR a 6 gradi di libertà (che cioè rispondono sia a rotazione della testa che spostamento nello spazio): Oculus Quest (standalone android) e Oculus Rift S (connesso a PC):
https://www.hwupgrade.it/news/periferiche/provati-oculus-rift-s-e-quest-ecco-com-e-la-nuova-generazione-di-vr_81807.html

DelusoDaTiscali
01-05-2019, 12:24
...siti archeologici,... scoperti ...destinati normalmente a essere riseppelliti e distrutti...

Spero che quel "distrutti" sia un modo di dire: nel mondo reale non è che si fa come Indiana Jones.

jumpjack
01-05-2019, 13:30
Spero che quel "distrutti" sia un modo di dire: nel mondo reale non è che si fa come Indiana Jones.
A volte sì: o costruisci l'autostrada/fognatura/ferrovia/palazzo, o preservi il sito archeologico.

jumpjack
24-05-2019, 08:27
La realtà aumentata arriva a Circo Massimo:

Dalla prima costruzione in legno ai fasti dell'età imperiale, dal Medioevo ai primi decenni del '900. È il percorso di "Circo Maximo Experience", il progetto innovativo di valorizzazione in realtà aumentata e in realtà virtuale del più grande edificio per lo spettacolo dell'antichità con i suoi 600 metri di lunghezza per 140 di larghezza. Il progetto consentirà da domani, attraverso un percorso di visita immersiva e indossando degli appositi visori, di vedere per la prima volta il Circo Massimo in tutte le sue fasi storiche. Il racconto dell'itinerario è affidato alle voci degli attori Claudio Santamaria e Iaia Forte. Il percorso, della durata di circa 40 minuti, è disponibile anche in inglese, francese, tedesco, spagnolo e russo. La visita, promossa da Roma Capitale, assessorato alla Crescita culturale - Sovrintendenza Capitolina ai Beni Culturali e organizzata da Zètema Progetto Cultura, si articola in diverse tappe e inizia con la presentazione della Valle Murcia, l'area situata tra il colle Palatino e il colle Aventino.

https://www.ilmessaggero.it/video/roma/circo_massimo_experience_roma-4508506.html

jumpjack
27-05-2019, 08:18
Dal sito ufficiale (http://www.circomaximoexperience.it/) per la realtà aumentata a Circo Massimo:


ORARI
Dal martedì alla domenica 9.30-19.00 (apr/ott) – 9.30-16.30 (nov/mar)
24 e 31 dicembre 9.30-14.00
Ultimo ingresso fino ad un’ora prima dell’orario di chiusura
Chiuso il lunedì, 25 dicembre, 1 gennaio, 1 maggio
In caso di pioggia non sarà possibile fruire dell’esperienza multimediale

INFORMAZIONI

Info e acquisto +39 060608 (tutti i giorni dalle ore 9:00 alle 19:00)
Prenotazione consigliata
I bambini con meno di 14 anni potranno indossare i visori e fare l’esperienza se accompagnati da un adulto che firmi la liberatoria predisposta in biglietteria.

DETTAGLIO TARIFFE
Intero: € 12,00
Ridotto: € 10,00

Esperienza realizzata tramite visore "ONE Zeiss VR (https://www.zeiss.com/virtual-reality/home.html)"

Specifiche tecniche del visore (di tipo passivo, cioè contenitore per smartphone):
https://www.zeiss.com/content/dam/virtual-reality/english/downloads/pdf/vr_one_plus_spec.pdf

Smartphone utilizzato: iPhone con librerie ARkit.


250.000 linee di codice
3 versioni del Circo modellate
Oltre 40 minuti la durata totale dell’esperienza
Più di 1800 elementi 3D realizzati
Più di 2 miliardi di poligoni
5-10 cm l’accuratezza delle mappe 3D

Fonte: https://www.romatoday.it/eventi/cultura/circo-massimo-experience-visita-virtuale.html

Non è specificarto quanti siano i gradi di libertà dell'esperienza, cioè se solo 3 (postazioni fisse e solo possibilità di girarsi intorno a 360°, come all'Ara Pacis) o 6 (possibilità di camminare all'interno di ambienti virtuali ricostruiti). In teoria le librerie ARkit di Apple, come le ARCore di Google, consentirebero 6 DoF.
Visore a 6 gradi di libertà.

Progetto promosso da Roma Capitale, organizzato da Zetema Progetto Cultura e realizzato da GS NET Italia e Inglobe Technologies.

jumpjack
10-10-2019, 14:28
Ho finalmente provato la "Circo Massimo VR Experience".
Davvero notevole.
Il visore "ONE Zeiss VR" è uno standalone a 6 gradi di libertà, cioè non serve uno zainetto sulle spalle (standalone), e il punto di vista cambia sia ruotando la testa (3 gradi di libertà) che spostandosi a destra e sinistra e in alto e in basso (altri 3 gradi di libertà).
Purtroppo non ci si può spostare di molto a destra e a sinistra, non si può camminare col visore, perchè è rigorosamente vietato dal personale del "museo"! Ed è giusto che sia così, perchè tutti i visori hanno ancora una grossa pecca: la realtà aumentata è inesprabilmente bidimensionale!
Sì perchè i visori hanno una sola telecamera, quindi le immagini reali sono necessariamente bidimensionalli, e le immagini che vi vengono sovrapposte devono necessariamente essere anch'esse bidimensionali, altrimenti la cosa sarebbe piuttosto confusa.

Però l'effetto immersivo è talmente efficace che più di una volta ho dovuto passare la mano davanti alla telecamera per capire se stavo vedendo immagini reali o di sintesi: il cielo infatti viene lasciato originale quando vengono sovrapposte le immagini del circo massimo.... però a volte viene rimpiazzato anche quello, ed è veramente difficile capire quando.

L'esperienza prevede 8 punti di osservazione sparsi tra le rovine ("sparsi" con un criterio un po' strambo, ma vabbè), nell'ultima delle quali si può assistere alla corsa delle bighe dagli spalti, stando seduti accanto agli antichi romani a fare il tifo. :)
Ma siccome noi siamo più fichi degli antichi, poi il punto di vista si sposta anche sulla pista, con le bighe che ti sfrecciano intorno.

L'esperienza dura circa 40 minuti, e ora come ora l'ingresso è fino alle 18.00, ma penso che a breve anticiperanno la chisura per via dell'ora legale.

Da notare poi che a 500 metri da lì ci sono anche le terme di Caracalla, dove è stata da poco allestita una visita in realtà aumentata (che non ho ancora provato).

Consiglio: durante l'esperienza (questa e qualunque altra in AR o VR) reggetevi sempre a qualcosa, da tenere come "punto di contatto con la realtà", così eviterete di dare capocciate ai muri, calci alle persone o di finire per terra. :D

jumpjack
11-12-2019, 08:26
Prossimo arrivo nel mondo dell'archeologia VR: Basilica sotterranea degli Statili, sotto la centralissima via Prenestina, a un passo da Piazza Maggiore.
http://www.ansa.it/canale_viaggiart/it/notizie/bellezza/2019/12/10/visori-3d-e-nuove-luci-per-la-basilica-dei-misteri_b3132e96-756b-403e-8e0f-feebcd330013.html

Entro il 2020, annuncia la soprintendente speciale di Roma Daniela Porro insieme con il direttore del monumento Anna de Santis[...] speciali visori 3d che come già avviene per la Domus Aurea, saranno in grado di ricostruire, scientificamente, la realtà di allora.

Basilica sotterranea di Porta Maggiore (https://www.coopculture.it/heritage.cfm?id=184)

jumpjack
07-01-2020, 09:49
Pagina di aggregazione delle varie esperienze di realtà aumentata di Roma:
https://valeriacastiello.com/viaggi-antica-roma-realta-virtuale-ricostruzione/

In arrivo anche la realtà aumentata del Mausoleo di Augusto?
https://youtu.be/KOALbK0Zeog

jumpjack
09-01-2020, 13:03
Un intero sito dedicato alle esperienze di VR a Roma!
https://www.vrbacktothepast.com/home_ita.php

https://www.vrbacktothepast.com/images/12.jpg

https://www.vrbacktothepast.com/images/15.jpg

Però questi sono produttori di contenuti, non organizzatori di eventi: bisogna organizzarsi in un gruppo per chiedergli di organizzare un evento apposito.

jumpjack
17-02-2020, 11:05
E' ora possibile anche per "semplici" applicazioni cardboard, che girano quindi su cellulari e non su visori specifici, avere 6 gradi di libertà (6DOF) invece ch 6, cioè leggere anche la posizione della testa, oltre che la direzione; cosa resa possibile dall'integrazione con google ARCore, pensato inizialmente per fare il tracking 6DOF ma per immagini singole.

https://github.com/ChristophGeske/ARCoreInsideOutTrackingGearVr

E' quello che chiamano "inside-out tracking", cosa appunto normalmente possibile solo con visori standalone dedicati, molto potenti, in contrapposizione con l'"outside tracking" che richiede di posizionare telecamere o sensori in giro per la stanza.

Bisogogna solo vedere quanto deve essere potente il cellulare...
Il mio vetusto S7 del 2017 riesce a gestire fluidamente l'app demo BoxyRoomChardboard (https://github.com/ChristophGeske/ARCoreInsideOutTrackingGearVr/tree/master/BoxyRoomChardboard) (hanno messo un'acca di troppo?!?), ma bisogna vedere con le texture come se la caverebbe.

--------------------

A parte questo, ho scoperto un bug generalizzato in tutte le app VR create con Unity, riscontrato di persona, e di cui parlano in vari forum Unity: a causa di un errato rilevamento dela risoluzione dello schermo, le app sviluppate con Unity, su certi cellulari (tipo appunto l'S7) sbagliano a disegnare le immagini sullo schermo, per cui i centri delle due immagini risultano distanti tipo 10-12 cm invece che 6-7, per cui è impossibile vederle anche modificando la distanza interpupillare del visore manualmente. Gli sviluppatori parlano di "double vision", cioè appunto visione sdoppiata, o visione non allineata.

Esempio:
https://i.imgur.com/FU7n3dZ.png

In pratica il 3d è giusto, perchè il pallino che indica la direzione dello sguardo è nello stesso punto delle due immagini, ma la "proiezione" sullo schermo è sbagliata, perchè lo schermo viene considerato come se fosse più largo.

Per ora la soluzione pare che sia cambiare a mano la risoluzione dello schermo dalle impostazioni, ma la cosa è un po' aleatoria: a volte bisogna metterla a FHD (720 linee), a volte a WQHD (2560x1440), a volte cambiarla e poi rimetterla uguale a prima, a volte si può fare senza riavviare l'app, altre va riavviata, poi c'è chi dice che basta bloccare e risbloccare lo schermo per risolvere...
Alcune app, poi, si rifiutano di aggiustarsi con qualunque metodo.

jumpjack
13-05-2020, 15:11
Ho scoperto che 10 anni fa esisteva un'applicazione già favolosa per quei tempi (o forse sembra favolosa oggi con un computer moderno....): permetteva di navigare in una ventina di luoghi turistici famosi ricostruiti in 3d, da San Pietro al Taj Mahal, passando per la Piazza Rossa, Machu Picchu, il Cristo Redentore e una quindicina di altri posti, con tanto di commento audio del luogo visitato.

Si trattava di Vizerra della russa 3DreamTeam, ma il sito www.vizerra.com è defunto dal 2009; mi sembra di aver capito che hanno sostituito il "Vizerra Client", come lo chiamavano, con Revizto, che esiste ancora oggi, ma non è più nè gratuito nè turistico, ma dedicato ad architetti professionisti.

Qualcosa è rimasto sui server vizerra, qualcosa sui server S3 di Amazon; tutto quello che sono riuscito a trovare l'ho raccolto qui:
http://win98.altervista.org/vizerracom/installers/

La maggior parte dei file NIF dei modelli 3d non è leggibile con nessun programma che ho trovato in giro: sono in formato Gamebryo 20.6.0.0, ma tutti i lettori/convertitori si fermano a 20.5.0.0 . Però sono riuscito a correggere il plugin di importazione di Noesis in modo che non si blocchi in caso di errore delle texture: invece di bloccarsi, le ignora. Così sono riuscito a caricare tutti i modelli! Purtroppo senza texture, ma anche così è una grossa base di partenza, considerando che ogni modello occupa a da 50 a 300MB zippato, avevano fatto un bel lavorone; ed era tutto gratuito!

Se qualcuno sa dove mettere le mani per modificare il plugin in python per riuscire a fargli caricare anche l texture, potremmo fare una bella opera di restauro archeo-digital-turistico!
Anche perchè Noesis esporta anche in formato FBX (credo sia l'unico programma free a farlo), formato accettato dalla piattaforma di condivisione di realtà aumentata Augin ( https://my.augin.app/ ); non ho ancora provato a caricare i modelli perchè sono appena riuscito a sistemare il plugin, quindi non so se davvero funzionerebbe e che limitazioni abbia come dimensioni caricabili (Sketchfab free si limita a 50MB), comunque anche Augin è free, quindi vale la pena di fare qualche esperimento, per vedere se si riescono a rendere le location di Vizerra visitabile in realtà aumenta a 6 gradi di libertà (Augin supporta le librerie ARCore).

jumpjack
30-09-2020, 08:43
"New entry" nel mondo del turismo virtuale: ENIT, Ente Nazionale per l'incremento delle Industrie Turistiche (poi Ente Nazionale Italiano del Turismo), fondato nel 1919 e oggi Agenzia Nazionale del Turismo, apre la prima (forse di una lunga serie) mostra virtuale: di per sè non è particolarmente interessante, in quanto totalmente autocelebrativa, e consiste nella visita di 6 stanze che mostrano una decina di manifesti e immagini, però a giudicare dal sito dovrebbe essere solo l'inizio di una serie di mostre 3d virtuali.

La notizia: https://www.enit.it/wwwenit/it/pressroomonline/comunicati-stampa/3252-enit-2020-turismo-mibact-2020-mostra-virtuale-enit-agenzia-nazionale-turismo-3d-archivio-digitale-alberto-angela-ambasciate.html

Il sito: https://www.mostrevirtuali.enit.it/

La prima mostra: Enit e l'Italia, una gran bella storia (https://www.mostrevirtuali.enit.it/mostra-virtuale/?scheda=20517)

Interessante il fatto che ENIT abbia un archivio di "oltre 100.000 foto e filmati", che presto dovrebbero essere ricercabili dal link "archivio (https://www.mostrevirtuali.enit.it/archivio/)".

Sembra potenzialmente un progetto interessante, speriamo che si concretizzi.

Pagina Facebook: https://www.facebook.com/ENITItalia/

jumpjack
26-04-2021, 13:52
Mausoleo di Augusto: visita virtuale di Zuckerberg, Raggi lo invita a Roma (https://roma.corriere.it/notizie/cronaca/21_aprile_24/mausoleo-augusto-visita-virtuale-zuckerberg-raggi-invita-roma-9d33d798-a518-11eb-b217-273add3a391e.shtml?cmpid=PA178012501DCOR)

zappy
26-04-2021, 16:00
Mausoleo di Augusto: visita virtuale di Zuckerberg, Raggi lo invita a Roma (https://roma.corriere.it/notizie/cronaca/21_aprile_24/mausoleo-augusto-visita-virtuale-zuckerberg-raggi-invita-roma-9d33d798-a518-11eb-b217-273add3a391e.shtml?cmpid=PA178012501DCOR)

ha pagato il biglietto? :p

jumpjack
14-10-2023, 20:04
Novità molto interessante a Tivoli (RM), sabato 21 e domenica 22.
https://culturaimmersiva.it/tivoli/

15 euro a testa, 10 se si va in 2.