[archeologia] Realtà virtuale e preservazione dei monumenti tramite modelli 3d
Quest'app (sketchfab) è a dir poco stupefacente!
https://play.google.com/store/apps/d...tchfabvr&hl=it Permette di "immergersi" in antichi siti archeologici, come se si fosse sul posto! E' già eccezionale con Google Cardboard, che rappresenta il "minimo sindacale" per la realtà virtuale, non avendo il tracking posizionale della testa, ma già così l'esperienza è fenomenale! E, a quanto ho capito, non serve chissà quale strumentazione per realizzare i modelli, basta qualche decina di foto! Potrebbe rappresentare il futuro per quei "siti archeologici impossibili" che vengono scoperti durante la costruzione di strade, ferrovie, metropolitane ed edifici: destinati normalmente a essere riseppelliti e distrutti, in futuro basterà invece fotografarli in abbondanza, e chiunque, quandunque e ovunque potrà visitarli... anche se/quando non dovessero esistere più! :eek: Per vederlo sul PC usate invece il sito e abilitate WebGL. |
Ho indagato un po' più a fondo e ho scoperto che sito e app di sketchfab di per sè non permettono di realizzare i modelli, ma "solo" di visualizzarli in VR.
Per realizzarli serve un qualunque programma di cosiddetta "fotogrammetria automatica" e pare che ce ne siano tanti, anche free. Questi si usano per digitalizzare qualcosa di esistente. Se invece si vuole costruire un modello a mano da zero, si possono usare anche qui tanti programmi.... ma ho scoperto che il "classico" Trimble Sketchup, adatto anche ai principianti, adesso ha un potente alleato: Kubity Una semplice app, per iOs e Android, che in un istante permette di immergersi in VR in un proprio modello! Ho idea che, date le potenzialità di una simile app, non durerà molto come freeware, quindi conviene salvarsi l'APK sul PC e custodirlo gelosamente! :read: Mi sa che Google ha preso una bella cantonata a dar via Sketchup! Sketchup + Google Earth + Kubity = rivoluzione archeologico-turistica digitale! Immaginate milioni di appassionati nel mondo che ricostruiscono digitalmente monumenti ormai scomparsi, li schiaffano su Google Earth e li rendono visitabili con Kubity! Il Porto di Ripetta e il Colosso accanto al Colosseo di Roma, tanto per citarne un paio: uno va a Roma, si mette accanto a dove sorgeva il colosso, ma dove ora c'è solo asfalto, indossa il suo visore, e magicamente il Colosso ricompare dov'era! E il Porto di Ripetta risorge sul Tevere! Purtroppo Kubity non ha ancora la sovraimpressione del modello alle immagini della telecamera, quantomeno in modalità VR; in modalità 3d semplice però sì, quindi immagino sia solo questione di tempo. |
...sembrva troppo bello per essere vero...
Di Kubity è freeware solo il player android! L'app che rende gli oggetti Sketchup visionabili nell'app è invece a pagamento! E a ben 30 euro al mese! Esiste anche una versione trial... ma non è dato di sapere quanto dura (ma immagino un mese come al solito). In compenso, è appena uscito un nuovo plugin per Sketchup che pare invece essere freeware e opensource: http://www.bimplus.co.uk/technology/...2d-vr-seconds/ Quest, stando al sito ufficiale, sarebbe il sito per scaricarlo... ma il link è errato!http://www.bimplus.co.uk/admin/artic...ugin/download/ A visionare bene il link, sembra un refuso, e infatti basta smanettarlo un po' per ottenere il link giusto: https://www.yulio.com/plugin/download/ ------- Una volta che avrò trovato il "software definitivo" per trasportare nella Realtà Virtuale i modelli Sketchup, tra i vari progetti più o meno complicati che ho in mente ne ho anche uno relativamente semplice: riportare in vita oggetti e monumenti del passato tramite "foto a realtà aumentata"; vista infatti la complessità e lunghezza del trasformare una foto in modello 3d, ho pensato che, se si riesce a determinare con precisione centimetrica da dove è stata scattata un'antica foto, basterebbe poi creare un "oggetto 3d" che consiste semplicemente nella foto stessa, ma posizionata in modo tale da essere osservata, tramite visore VR, come se ci si trovasse nel luogo esatto in cui si trovava il fotografo; poi basterà andare sul posto, osservarlo come è adesso, e poi inforcare il visore per fare un tuffo nel passato. Un tuffo... semplificato, ma dovrebbe essere comunque interessante! ----- un paio di app da esaminare: sightspacepro - https://play.google.com/store/apps/d....sightspacepro modelviewer - https://play.google.com/store/apps/d...elviewer&hl=en |
Ho iniziato a lavorare al mio progetto di VR (e futura AR): la teca del Morpurgo del 1938, oggi sparita.
Se vi va di dargli un'occhiata, poi mi fate sapere se sui vostri cellulari/visori il modello gira? https://sketchfab.com/models/d27dc85...2310c3014c2244 Al momento il modello è veramente rozzo e semplice, sto solo testando l'app, ma conto di ricostruire per intero la teca, texture incluse, e di aggiungere anche gli edifici circostanti; visto che però quelli ancora esistono, penso che andrò sul posto a fare qualche miliardo di foto ;) da dare in pasto ad Autodesk Remake e a 3DF Zephyr, vediamo chi se la cava meglio! Il secondo è completamente gratuito il primo ancora non capito bene se ha solo una versione economica per studenti o anche una del tutto free. Però ho un grosso problema: la teca era bianca o nera??? |
Quote:
|
Quote:
Oppure si potrà, da casa, visionare il vecchio edificio come se ci si trovasse sul posto. Con le foto l'effetto immersivo ovviamente è minore, ma dovrebbe comunque essere "visivamente potente": un'evoluzione di quei libricini turisitici con le pagine trasparenti che sovrappongono le ricostruzioni ai resti dei monumenti. Però se non hai mai provato di persona un visore VR non puoi capire bene che effetto fa... :stordita: Se hai un cell col giroscopio, con 15 euro puoi comprare online un visore cardboard-compatibile. |
Quote:
ok, cmq ho capito :) |
Ecco un piccolo assaggio delle possibilità offerte da questa nuova tecnologia:
Modello 3d: https://skfb.ly/6sA7Z 5 (cinque() minuti di lavoro sul campo per fare 60 foto da 16 Mpixel da tutte le angolazioni possibili immaginabili, un'ora per caricare i 330 MB risultanti, e poi una mattinata passata... ad aspettare comodamente seduto sul divano. :D Il risultato è a dir poco strabiliante, non vi pare? Ho usato la versione trial di Autodesk Remake, che supporta fino a 250 foto e risoluzione "smodata" per il modello; quando scadrà la trial diventerà free e ne supporterà solo 50 e una risoluzione "normale"... che non so a quanto equivalga, lo saprò quandoo mi scadrà la licenza... Il soggetto è la Fontana della Botticella in piazzale Augusto a Roma. |
notevole! :mano:
chissà se c'è qualche sw opensource x fare lo stesso. |
Interessante, ma come funziona esattamente?
Basta dargli in pasto "a caso" tutte le foto scattate da varie angolazioni o bisogna dargli manualmente certe indicazioni sull'angolazione delle varie foto? |
Quote:
Poi te ne vai a fare quello che ti pare, e quando torni, la torta è pronta! :) L'unica accortezza è di scattare foto mantenendo il soggetto al centro dell'inquadratura, in modo che in ogni coppia di foto ci sia un buon 70-80% di roba in comune; con gli edifici non è facile; questa chiesa, per esempio, era fotografabile solo su due lati, senza dover stare in mezzo a una strada trafficata... :stordita: , quindi il risultato è parziale... ma comunque buono: https://sketchfab.com/models/861056a...b1310afed70f0e Adesso sto facendo un altro esperimento con la chiesa accanto a questa: visto che l'ho comunque fotografata parzialmente, e che in ogni caso non posso fotografarla dall'alto, voglio provare ad aggiungere degli screenshot da Google Earth Pro, che mostra gli edifici in 3d; da vicino sono molto grossolani, ma spero che i dati siano almeno sufficienti a dare solidità a 360x360° al modello. |
Ecco un'altra app molto interessante... anche se per il momento ancora non esiste! :stordita:
https://www.atavisticapp.com/scarica Non capisco bene se è un progetto abbandonato o ancora in sviluppo, il sito è un po' scarno, però le potenzialità di quest'app sono enormi! In breve consente di aggiungere a una foto di un monumento, scattata anche con gente nel mezzo, la ricostruzione 3d di come il monumento era una volta! |
Ho trovato due programmi free di realtà aumentata, con stesso nome ma molto diversi... e molto lontani nel tempo!
ARToolkit (del 2004 ?!? Per Windows, Linux e Windows.CE!!) ARToolkit (2017, anche per Android) Devo capire quant'è complicato usare il secondo per creare un'app... Nel cercare ARToolkit sullo store ho anche trovato CoRo AR, basato appunto su ARToolkit, che è interessante perchè usa un marker così semplice che si può disegnare a penna! |
Grande novità!
Ho finalmente trovato un'app di Realtà Aumentata totalmente grautita! (sia per creare i modelli 3d che per vederli). Si chiama ARMedia SDK, di cui esistono plugin per vari programmi, tra cui Trimble Sketchup, uno dei più semplici da usare; il plugin dovrebbe essere compatibile con le versioni dalla 8 in poi, ma a me sulla 8 non va, l'ho installato sulla 2014 (la v.8 era l'ultima di Google, le successive sono di Trimble). Questi invece sono i player, per varie piattaforme tra cui iOs e Android: http://www.inglobetechnologies.com/e...layer/info.php il plugin di Sketchup è piuttosto macchinoso da usare, ma alla fine sono riuscito a ottenere i file .armedia dei miei modelli della teca di Morpurgo e del porto di Ripetta (quest'ultimo per ora è limitato a una semplice foto), adesso devo capire se c'è un sito Armedia per la condivisione o se devo metterli su un sito mio. La suite Armedia è davvero potente: permette di aggiungere a un modello in realtà aumentata dei video "proiettati" su una superficie del modello, o una colonna sonora di sottofondo, e permette anche di effettuare il tracking di un oggetto in 3 modi: con classico target bidimensionale, tramite GPS+giroscopio, e persino tramite target tridimensionale! Gli ultimi 2 metodi mi sembrano ideali per sovrapporre edifici virtuali a edifici reali; il primo è probabilmente non precisissimo, ma per il secondo intravedo enormi possibilità: le istruzioni dicono infatti di fare una 50ina di foto all'edificio da "ricreare", e da esse i server Armedia ricavano un modello 3d di massima, che viene poi usato dal player per fare il tracking; questo dovrebbe significare che potrebbe essere possibile passeggiare intorno a un edificio e, in tempo reale, vedergli sovrapposte le immagini di com'era prima. Anche con un "semplice" cellulare, che di per sè (ad oggi) non ha "positional tracking" ma solo "orientation tracking". E' possibile persino inserire degli "oggetti occultanti" o "maschere 3d" nel modello, per fare in modo che se, girando intorno all'edificio, vi trovate davanti un albero o un cartello, questo non comparirà DIETRO al modello, che di fatto viene disegnato SOPRA l'immagine della telecamera, ma coomparirà davanti al modello! Questo garantisce un tremendo incremento di realismo! Devo solo capire bene quante di queste caratteristiche sono disponibili nella versione free, ma per ora mi sembra di capire che lo sono tutte, al "costo" di sopportare scritte e watermark in sovraimpressione. Sull'utilizzo di visori VR non ho trovato per il momento indizi sul sito ARMedia, ma c'è da dire che per la AR i visori VR non rendono molto, almeno adesso che i cellulari hanno una sola telecamera posteriore, o al massimo due distanti pochi mm: questo impedisce infatti di avere la tridimensionalità per le immagni reali che vengono mostrate "dietro" al modello 3d. |
Quote:
Per ora comunque la "scansione" migliore è quella della fontana secondo me. Ah, ma ovviamente usi qualche comando per "ritagliare" i margini del modello? |
Quote:
Ed è meglio così, perchè ho provato ad elaborare sul mio PC con 2GB, dual core e scheda video qualunque, gli stessi dati usando 3DF Zephyr... e dopo 36 ore non aveva ancora finito, ho dovuto desistere. :stordita: Quote:
Sennò si può usare anche Meshmixer (freeware, sempre Autodesk). Sì, la fontana è la scansione migliore; ho provato anche a fare la scansione delle due chiese circostanti, ma chiaramente ottengo buoni risultati per le facciate, e zero risultati per il tetto! Allora ho provato a integrare le riprese dal basso con foto prese da Google Earth Pro, che ha modelli 3d di edifici ... ma Remake non ha gradito, è uscita fuori una schifezza. in compenso sono riuscito a usare Remake come fotocopiatrice 3d :read: Ho preso questo modello, l'ho schiaffato in questa pagina sperimentale, ho fatto creare 4 gif animate partendo da varie inclinazioni del modello, ho caricato le GIF in VirtualDub, esportato come sequenze di immagini e dato tutto in pasto a Remake. Il risultato è un modello fedele al 90% all'originale (potevo fare di meglio, ma per i miei scopi è più che sufficiente, quindi inutile stare a impazzire). |
Sono sempre più convinto che questa faccenda della "fotogrammetria automatica" avrà effetti dirompenti sulla scienza... e non solo sull'archeologia!
Guardate cosa sono riuscito a fare con la versione free di Autodesk Remake, cioè usando solo 50 immagini! :eek: https://sketchfab.com/models/72c10a2...a1427265f17324 E' il cratere Barbagallo Nord dell'Etna, fotografato camminando lungo il sentiero sul bordo del cratere stesso; tempo di ripresa: 20 minuti, il tempo di fare il giro. Quota 2900m, temperatura sui 10 gradi. Pensate cosa si potrebbe fare con un drone che scatta 200 foto invece che 50! O, meglio ancora, che riprende un breve video tramite fotocamera a 360 gradi. 5 minuti di volo, 10 minuti di postproduzione per estrarre dal video a 360 le singole foto necessarie, un paio d'ore di elaborazione sui server... e qualunque geologo potrebbe passeggiare sul fondo del cratere (posizione 5) standosene comodamente seduto al calduccio in ufficio! :eek: La faccenda di estrapolare le singole immagini dal video a 360° è una mia idea, a quanto pare non esiste ancora nessun SW in grado di farlo automaticamente, non ho capito se devo scrivermelo da me o se è meglio aspettare.... quanto? un paio d'anni?!? :( |
Quote:
cmq notevole :eek: l'unica cosa che mi dà fastidio è che il sw sia closed :) |
Un altro paio di esperimenti applicativi: la misurazione della distanza di oggetti lontani (vedasi scarpata dietro allo scoglio di Terracina), e la ricostruzione 3d del luogo di un disastro, possibile nel giro di un paio d'ore, il tempo di fare un volo col drone e inviare le immagini a un server di elaborazione.
Scoglio di Terracina: https://skfb.ly/6tu8o Macerie di Amatrice dopo il terremoto del 2016: https://skfb.ly/6tu8D In entrambi i casi i dati a disposizione sono pochissimi, quindi il risultato è un modello molto limitato: l'angolo di rotazione della camera intorno al soggetto, infatti, era di solo pochi gradi. |
Quote:
|
Quote:
|
Ahimè, sta per finire la pacchia: Autodesk Remake funzionerà solo fino al 30 novembre, dopodichè verrà disabilitata la funzione di elaborazione su cloud e il programma verrà sostituito da Autodesk Recap Photo, a pagamento, a partire da 40 dollari al mese!!!
Recap Photo funzionerà esclusivamente online... il che lascia supporre che probabilmente sarà comunque possibile continuare a usare Remake offline; ergo, sbrigatevi a scaricarlo! (sempre che il download sia ancora disponibile!) Ma tenete presente che i requisiti minimi di sistema sono 16 GB di RAM e una scheda video nVidia. Comunque esiste già anche il freeware 3df Zephyr, e anche per cellulare stanno comparendo diverse app. https://knowledge.autodesk.com/suppo...Questions.html |
Quote:
|
Autodesk Remake ci ha lasciato, così ho iniziato a fare esperimenti con 3DF Zephyr, di cui è ancora possibile utilizzare la versione gratuita, che accetta solo un massimo di 50 foto (come la ex versione free di ReMake) e funziona offline.
I risultati non sono male: pur avendo impostato la risoluzione minima, per non sovraccaricare il mio povero dual core con soli 4 GB (ma gli sto preparando un regalino :) ), ho ottenuto un modello 3d paragonabile a quello ottenuto con ReMake, usando la stessa base di foto: circa 50, di cui 3DF ne ha scartate 15 (per motivi che non so). Questa volta, invece di fare un'elaborazione unica, ho proceduto per step, per non perdere il lavoro in caso di crash: nuvola di punti approssimativa ("sparse"), nuvola precisa ("dense"), mesh e infine mesh con texture. Interessante il fatto che l'elaborazione stavolta sia durata solo un paio d'ore invece che 3 giorni come la volta scorsa (quando però avevo impostato la risoluzione massima). Fontana "Tevere", a Roma, gruppo "Quattro fontane": Versione Remake Versione 3DF Intanto ho scoperto anche un software open e multipiattaforma, ma devo ancora provarlo: si chiama Regard3D. La parola chiave da ricercare è, oltre a "fotogrammetria automatica" e cose simili, anche "structure from motion", "SFM". Tempo fa avevo trovato un programma cercando in questa categoria, e ne trovai uno che dava come risultato una manciata di puntini e i punti di osservazione della telecamera, e l'ho scartato come "inutile", ma poi, facendo la suddetta prova con 3DF, ho scoperto che al primo passaggio la nuvola di punti "sparse" creata è molto simile a quella prodotta dal programma di SFM! Quindi forse avevo solo interrotto l'elaborazione troppo presto... o forse il SW era ancora troppo acerbo, non so. Da indagare. Un altro studio che ho fatto è la possibilità di usare foto a 360° per fare ricostruzioni 3d. Oltre a "ottenere" che un tizio creasse (per me?!?) uno script per Imagemagick che estrae singole immagini piane da una sferica , ho anche trovato una ricerca (italiana) che spiega come sia effettivamente possibile ricostruire l'interno di una stanza usando una decina di foto a 360° con pochissimo sforzo dell'utente: https://www.int-arch-photogramm-remo...W3-85-2017.pdf |
Quote:
Quote:
|
Ho dato in pasto a Regard3d il solito pacco di 50 foto della fontana Tevere.
Si è bloccato il PC, non funziona manco il mouse, e dopo 3 ore sta ancora al 30% dell'elaborazione.... :( Purtroppo non mi ha dato la possibilità di scegliere la risoluzione desiderata o altre opzioni... ha preso e ha iniziato a masticare le foto appena gliele ho date. Vediamo un po' se esce fuori qualcosa di buono o se sto solo usando il PC come stufetta! :rolleyes: Stavo considerando la potenza di calcolo necessaria per la fotogrammetria automatica: credo che per 50 foto servano 50^2 confronti per trovare punti in comune tra tutte le foto, quindi 2500 confronti; però le istruzioni di Regard3d suggeriscono di usare da 50 a 200 foto... cioè da 2500 a 40.000 confronti!! :eek: Urge una scheda grafica decente! Ho letto che per la fotogrammetria è utile che la scheda disponga dalla tecnologia CUDA a elaborazione parallela, che sarebbe "tipica" di nVidia (addirittura, Autodesk Remake in locale funziona SOLO con schede nVidia, anche se non parla esplicitamente di questo CUDA). E' interessante anche soffermarsi a studiare i modelli 3d risultanti da un'elaborazione con poche foto: ci si rende conto di come il nostro cervello "inventi" di sana pianta "il retro" degli oggetti solidi che vede, mentre nei modelli 3d questo "retro", cioè la parte eventualmente non coperta dalle foto, appare piatto, grigio e senza texture, causa totale mancanza di immaginazione da parte del computer. Per esempio, se guardo una colonna, so benissimo che è cilindrica, senza bisogno di girargli intorno; ma se faccio 50 foto a una colonna senza però girargli intorno.... il computer, invece di una colonna, tirerà fuori uno sgorbio con un lato perfettamente tondo! :doh: Per inciso, questa è anche la "caratteristica" più sfruttata da maghi e prestigiatori per "farci fessi": sanno che il nostro cervello immagina le zone che non vede, e ne approfittano per far succedere di tutto in quelle zone! |
Qualche link da esaminare per la tecnologia "structure from motion":
https://dronemapper.com/software_downloads https://publiclab.org/notes/nedhorni...ructure-motion https://forum.openrov.com/t/structur...-for-free/4974 http://ccwu.me/vsfm/#demo |
Quote:
Quote:
... Quote:
prendi un'auto appena uscita, se la vedi solo da davanti non hai la + pallida idea di dove sta la targa dietro :p Quote:
|
Quote:
E a proposito di "cose quasi magiche" e "intuizione dall'esperienza", ho scovato un algoritmo interessante (anche se OT...): permette al computer di ricostruire i colori di un'immagine in bianco e nero "deducendolo" dalle texture dell'immagine e dalla sua "esperienza" in merito a colori e texture. Chissà se un giorno riusciranno a inventare un algoritmo del genere per gli oggetti invece che per i colori! Ecco un'applicazione di questo incredibile algoritmo, che a volte ha del miracoloso: http://demos.algorithmia.com/colorize-photos/ Mi ha per esempio permesso di dirimere la diatriba tra "teca bianca" e "teca rossa" che sollevai tempo fa nel thread: l'algoritmo ha riconosciuto come "rosso" il materiale della vecchia teca! (cosa poi confermata da alcuni documenti storici: era finto porfido rosso) Il risultato con questa immagine è strabiliante! Considerate che un'immagine come questa probabilmente non può esistere nella realtà, visto che la pellicola a colori è arrivata in italia negli anni '50 ma la teca fu verniciata di bianco proprio negli anni '50, quindi probabilmente non esistono foto a colori della versione originale rossa. |
sembra quelle cartoline di molti anni fa in cui venivano colorate le foto in b/n :D
|
Interessante, ancora una volta il SW open si rivela migliore di quello che costa fior di quattrini: Regard3d mi comunica che la ricerca dei punti in comune tra le foto ha richiesto 5 ore e 48 minuti, e che i punti in comune tra le varie foto variano tra 6788 e 38956 (mai letta nessuna statistica, nè in Remake nè in 3DF).
La fase successiva è la "triangolazione" (vedi tutorial ufficiale): ha richiesto solo 4 minuti e 12 secondi! Il risultato è che sono state scartate solo 2 foto su 59 e sono stati trovati 80672 punti 3d (3DF ne aveva scartate 15). Per la fase successiva, la "densificazione", ho impostato inizialmente parametri un po' riduttivi, giusto per fare una prova veloce: scarto delle immagini meno utili (flag "use visibility informations") e "Livello 3" (qualunque cosa significhi; il tutorial dice che più è alto, più l'elaborazione è veloce). Tempo impiegato: 8m 12s L'ultima fase è l'unione dei vari punti tramite superfici interpolate, per creare il "guscio" (mesh o surface) finale; una prima passata la faccio col metodo della colorazione dei soli vertici, più rapida: 39 secondi. Il metodo delle texture impiega invece 25 minuti e dà origine a un file così grosso (75MB) e complicato che non riesco a visualizzarlo nè in Regard3d nè in altri programmi! Invece, restando sul metodo della colorazione dei soli vertici ma impostando Depth diverse, l'elaborazione resta sempre intorno al minuto. Find matches - fatto - 05h48m Triangulation - 00h 4m 12s Densification - 00h 8m 12s Surface generation - vertici: 1 minuto Surface generation - texture: 25 minuti Delle 59 foto, 3 le ho scattate da 10 metri di distanza (per avere una panoramica), 20 le ho scattate da 20-30 cm di distanza con flash (per riprendere il particolare della Lupa con Romolo e Remo, in basso a destra, che stanno nascosti in un anfratto), mentre tutte le altre da circa 50cm-1metro. La parte alta della scultura è irraggiungibile, arrivando a 4-5 metri di altezza. Non sono ancora riuscito a esportare da Regard3d in formato OBJ, l'esportazione si blocca; riesco a esportare solo in PLY: 150 MB di file! Compressi diventano 40MB. Però purtroppo non c'è texture. Ho caricato il risultato su Sketchfab: link Questa invece è una rassegna di screenshot delle varie elaborazioni: link |
Alla fine ho deciso di fare un regalino al mio vetusto PC:
16GB di RAM in più, e una scheda video Nvidia con 2 GB di DDR5 e 640 cores CUDA (una nVidia GTX 1050 Asus) . :) Spesa totale 250 euro (un PC con questa dotazione al momento costa 1500 euro...). Questi erano i precedenti tempi di elaborazione (con 4GB di RAM e senza scheda video dedicata): Quote:
Find matches - 1h 10m Triangulation - 4m Densification - 5m 23s Surface generation - vertici: 0m 17s Surface generation - texture: 6m 49s Però c'è un fatto strano: quando vado a ruotare la mesh finale risultante, il processo è lentisssssssimo! Vedo quando vengono disegnate le varie migliaia di poligoni ogni volta che muovo l'immagine anche di un solo grado! Sarà un problema di driver?!? Non li ho installati, ho solo infilato la scheda e acceso il PC... :stordita: |
La Ocutech360 sperimenta un algoritmo per estrapolare automaticamente un modello 3d da un filmato a 360°:
https://www.spar3d.com/news/related-...deo-3d-models/ |
|
Adesso addirittura abbiamo la ricostruzione Structure From Motion in tempo reale su dispositivi Android!
https://medium.com/super-ventures-bl...t-5223e6b3e79d Quote:
Pare sia una evoluzione/involuzione del sistema Tango, che si basa(va) su un sensore 3d tipo kinect... a quanto pare reso obsoleto dalla potenza di calcolo disponibile! Spero solo che il mio "misero" S7 sia all'altezza... ARKit è l'equivalente per IOS/Apple. ARCore fa addirittura una stima dell'illuminazione dei vari punti della stanza, e cambia l'illuminazione di un oggetto virtuale visualizzato sullo schermo a seconda del punto della stanza in cui virtualmente si trova! Nuovi termini da aggiungere al proprio vocaboloario tecnologico: SLAM - Simultaneous localization and mapping VSLAM - Visual Simultaneous localization and mapping VIO - Visual Inertial Odometry Qui però stiamo sconfinando nella realtà aumentata, dovel la SFM è solo un elemento secondario: viene usata "solo" per far capire al cellulare/computer com'è fatto l'ambiente 3d circostante, in modo da sovrapporgli realisticamente oggetti virtuali. |
Altra ricerca sulla fattibilità della ricostruzione di interni a partire da immagini sferiche o fisheye:
Immersive Photogrammetry in 3D Modelling GEOMATICS AND ENVIRONMENTAL ENGINEERING • Volume 9 • Number 2 • 2015 Karol Kwiatek*, Regina Tokarczyk** |
Si prospetta un futuro sempre più interessante per la preservazione virtuale dei monumenti, nonchè della loro visita virtuale:
Facebook/Oculus un mese fa ha annunciato un visore VR standalone, quindi svincolato dal PC , chiamato "Oculus go", a 200$, e HTC ha adesso annunciato il suo, che si chiamerà "HTC Vive Focus". La grossa novità per entrambi sta nel fatto di avere 6 gradi di libertà, cioè orientamento e posizione, cosa che un semplice cardboard o GearVR non hanno, essendo limitati a 3 DOF (solo rotazione). HTC Vive e Oculus Rift, i precedenti visori, oltre a richiedere connessione a PC richiedevano sensori esterni per monitorare e trackare il giocatore, mentre HTC Vive Focus e Oculus Go hanno tutto l'hardware a bordo. Questi due nuovi visori standalone vanno quindi ad aggiungersi al "cardboard+S8", reso possibile dall'SDK ArCore per android di cui parlavo un paio di post fa. Intanto ho scoperto anche lalibreria Vuforia per Android, che permette anche a cellulari che non supportano ancora ArCore di ricostruire l'ambiente 3d circostante senza fare ricorso a sensori esterni; mi pare di capire però che, almeno per ora, riesce a ricostruire solo un unico piano di appoggio (pavimento, tavolo), su cui è possibile collocare oggetti virtuali che non necessitano "marker". Però non ho ancora capito se devo per forza scrivere un'app per usarla o se c'è una qualche app che mi permette semplicemente di aggiungere i miei oggetti al mondo reale. Ho anche scoperto che Mizarlab (http://www.mizarlab.it/) è la società che sta "dietro" alle ricostruzioni virtuali, ma tramite semplici proiettori, dei fori di Augusto e Cesare a Roma, dell'Ara Pacis, delle tombe etrusche di Cerveteri. Spero che presto passino dal 2d al 3d, e di poter fare una passeggiata per i fori indossando un Oculus Go! |
SDK "Maxst" con versione gratuita per uso non commerciale, con potenzialità apparentemente simili a Vuforia:
https://developer.maxst.com/Pricing Anche qui c'è da capire come aggiungere un mio modello, se solo tramite app scritta in proprio o altro. |
Tutorial Vuforia (free) + Unity (free) per app con tracker a piacere e modello 3d a piacere:
https://www.youtube.com/watch?v=khavGQ7Dy3c |
Un altro importante contributo a questa nuova branca della scienza che è l'arechoricostruzione virtuale: le terme di caracalla!
Progetto "Caracalla IV dimensione", curato dal CNR. Per chi non lo sapesse, le terme di Caracalla sono fatte di "palazzoni" alti una cinquantina di metri! Oggi sono rimasti solo i muri e pochi tetti, ma all'epoca, come ora si potrà finalmente vedere invece di immaginare, c'erano marmi, mosaici e statue. ...e io che ci sono andato appena due mesi fa! :doh: A saperlo prima! :muro: Dal sito ufficiale: Quote:
In altre parole, credo che sia un Samsung Gear VR. Quote:
QUESTO è il vero ingresso, presso il Largo Cavalieri di Colombo: link Solo che... è una strada a senso unico, non ci si può entrare dal viale Terme di Caracalla! Che è uno stradone a 6 corsie non "parcheggiabile"! Quindi l'unico modo sensato per arrivare qui in macchina e parcheggiare (gratuitamente) accanto alle terme è prendere Via Antonina da via Guido Baccelli, e fare tutta la discesa fino all'ingresso. |
Tutti gli orari sono GMT +1. Ora sono le: 14:11. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.