20 maggio 2021

Occhialini 3D NVIDIA non più supportati: quali soluzioni adottare per la fotogrammetria?


Come probabilmente saprete, già dall' agosto 2019 la NVIDIA ha annunciato lo stop alla vendita del suo prodotto 3D VISION kit; questi occhialini non sono quindi più disponibili sul mercato e, cosa più grave, la NVIDIA non ne aggiorna più i driver. Se siete già in possesso di questi visori, questo mancato aggiornamento dei driver potrebbe creare problemi di instabilità e malfunzionamenti, ad esempio a seguito di un aggiornamento del sistema operativo. Di seguito vedremo come poter risolvere tecnicamente la questione e quali sono le possibili alternative.



VISUALIZZAZIONE STEREO E OCCHIALINI 3D VISION NVIDIA

Questi occhialini, che funzionano in combinazione con un emitter e un monitor a 120 Hz, furono pensati e prodotti per il gaming, ma in seguito sono stati ampiamenti utilizzati  nell'ambito della fotogrammetria per la visualizzazione 3D stereoscopica, in combinazione a software quali Stereo Analyst for Arcgis, o Stereo Analyst per ERDAS IMAGINE. Utilizzando questi software è possibile digitalizzare oggetti in un ambiente stereo, guardando quindi gli oggetti in un ambiente 3D che viene ricostruito al volo (on the fly) partendo dalla stereocoppia che può essere satellitare, aerea o da drone. 


Se ti interessa capire meglio il funzionamento delle immagini stereo, scrivici all'indirizzo hexagon@planetek.it e ti invieremo una stereocoppia demo acquisita dal satellite WorldView-3, con uan risoluzione spaziale di 30 cm.



LA QUESTIONE DEI DRIVER

Come si legge nelle FAQ sul sito di NVIDIA, il driver R418 (23 settembre 2019) è stato l'ultimo driver a contenere il pacchetto driver 3D Vision, ed è stato supportato ufficialmente fino a fine gennaio 2020. 
NVIDIA ha di seguito disaccoppiato il driver USB di 3D Vision dal driver delle schede grafiche, fornendolo come programma di installazione separato su NVIDIA.
Le nuove versioni dei driver delle schede grafiche NVIDIA quindi, non supportano più il kit NVIDIA 3D VISION, ma continuano a supportare la tecnologia OPEN-GL quad buffered stereo, che è alla base di alcune soluzioni alternative al KIT NVIDIA, che illustriamo di seguito.



Se i tuoi occhialini 3D NVIDIA non funzionano più, contattaci, ti daremo una mano a rendere il tuo sistema nuovamente funzionante (qualora fosse possibile, dipende da molti fattori sia hardware che software) o ti aiuteremo a scegliere l'alternativa migliore in base alle tue esigenze. Contattaci all'indirizzo hexagon@planetek.it



LE POSSIBILI ALTERNATIVE

Già da un paio di anni a questa parte, nelle nuove forniture di postazioni fotogrammetriche, ci siamo orientati su soluzioni alternative e tecnologicamente valide, come il monitor 3d Plural View prodotto dalla azienda tedesca Schneider. Questo monitor sfrutta la tecnologia OPEN-GL quad buffered stereo, per cui il suo funzionamento è certificato con schede grafiche quali l' NVIDIA QUADRO RTX 4000 o analoghe ed è sicuramente garantito per i prossimi anni.


Molto robusto e resistente, questo monitor viene prodotto in diverse dimensioni (24'', 27'' e 28'') e si basa sull'utilizzo di uno specchio riflettente e di occhialini polarizzati (ricorda come approccio quello del suo predecessore, Planar); permette di lavorare in modo continuo mantenendo elevati livelli di comfort per l'operatore (uno dei difetti degli occhialini NVIDIA era che non potevano essere usati per più di alcune ore di seguito).

In alternativa al monitor Plural View della Schneider, per la visualizzazione stereoscopica con ERDAS IMAGINE o Stereo Analyst per Arcgis è possibile utilizzare il monitor
Contour prodotto dalla azienda inglese Vision Engineering. La tecnologia di questo monitor è mutuata dai visori che la Vision Engineering produce da decenni per i controlli di qualità nel settore manifatturiero e garantisce una ottima qualità e percezione dell'immagine 3D. Uno degli vantaggi di questo sistema è che non necessita di occhiali per poter funzionare, un possibile svantaggio rispetto al Plural View è la minore libertà di movimento dell'operatore.



Si stanno affacciando sul mercato anche società che producono occhialini attivi "in stile" 3D NVIDIA VISION KIT e che si propongono come alternative. Sebbene questo risolva il problema che gli occhialini NVIDIA non sono più reperibili sul mercato, dal punto di vista tecnico questi occhialini di terze parti sono un'alternativa poco affidabile in quanto basano il loro funzionamento comunque su driver del 3D VISION kit, ormai obsoleto e non più supportato dalla casa madre.
Qualsiasi soluzione che si basa su un driver obsoleto, non può essere certificata o garantita nel tempo.

Se i tuoi occhialini 3D NVIDIA non funzionano più, contattaci, ti daremo una mano a rendere il tuo sistema nuovamente funzionante (qualora fosse possibile, dipende da molti fattori sia hardware che software) o ti aiuteremo a scegliere l'alternativa migliore in base alle tue esigenze. Contattaci all'indirizzo hexagon@planetek.it




06 maggio 2021

Rimozione del sunglint con ERDAS IMAGINE: un algoritmo implementato da Luigi Dattola di ARPACAL

 

Luigi Dattola, geologo di ARPACAL - Agenzia per la Protezione dell'Ambiente della Regione Calabria, ha recentemente messo a punto un algoritmo di ERDAS IMAGINE (Spatial Model) che permette di rimuovere il sunglint (riflesso causato dal sole sulle superfici d’acqua), da immagini acquisite da satellite, da aereo o da drone. Luigi ha deciso di mettere a disposizione della comunità internazionale di utilizzatori di ERDAS IMAGINE il modello, rendendolo gratuitamente scaricabile (vedi link dopo). Lo abbiamo intervistato per conoscere un po' meglio la sua storia e descrivere il funzionamento del modello.

Quando hai iniziato ad occuparti di telerilevamento?

Nel 2013, grazie all’interesse dell’allora mio Dirigente Francesco Falco, inizialmente producendo mappature delle coperture di cemento amianto da immagini iperspettrali MIVIS, per poi spostarmi verso applicazioni mirate al monitoraggio marino. Oggi continuo a lavorare in questi ambiti producendo mappature dei fondali, spesso finalizzate al censimento della Posidonia oceanica, pianta protetta,  che si trova di frequente lungo le coste calabresi e diffusa nei mari italiani. Sul tema mi è capitato di produrre elaborati che hanno riguardato le coste sarde, lucane e pugliesi. Di recente ho iniziato ad affrontare le tematiche di ciò che viene definito “Ocean Color”.

Che contributo possono portare, gli attuali sensori satellitari, al monitoraggio degli ecosistemi marini?

Cirella (Cosenza). Località spesso rilevata da ARPACAL
Ritengo che oggi, grazie ai numerosi sensori (tra i quali Sentinel 2, 3 e Prisma) con risoluzioni spaziali e spettrali alte o altissime, si possa ottenere molto, anche a scala locale, in tema di monitoraggio marino. Lavorare su specchi d’acqua comporta alcune complicazioni in più rispetto alla terra ferma come ben sa chi elabora immagini satellitari (aeree, drone) per produrre mappature dei fondali marini e riconoscere le strutture sommerse. 


Come descriveresti il fenomeno del sunglint?

Il riflesso causato dal sole sulle superfici d’acqua (sunglint) può fortemente compromettere i risultati attesi. Il fenomeno, causato prevalentemente dalle increspature sulla superficie dell’acqua, è maggiormente presente proprio in prossimità della costa e quando le condizioni climatiche sembrerebbero ideali: giornate limpide. Le conseguenze sono la difficoltà di riconoscere visivamente le strutture del fondale e gli ostacoli nella produzione di classificazioni, sia supervisionate che non supervisionate, con accuratezze significative. Sebbene in certi settori dell’immagine possa sembrare che il segnale registrato dal sensore sia esclusivamente composto dal riflesso, nella realtà una porzione del dato registrato sarà certamente dovuto all’energia emergente dopo aver raggiunto il fondale. 
Questa porzione di energia riflessa nelle bande del visibile può essere recuperata desaturando il dato. 


Quale metodo hai utilizzato per la rimozione del suglint?

Il metodo usato per rimuovere il sunglint, è stato sviluppato da Hochberg et. Al. (2003) e modificato da Hedley et al. (2005), e consente di rimuovere il sunglint dalle bande del visibile, che sono poi quelle di nostro interesse, usando una banda del NIR. Tale procedura si basa fondamentalmente su due assunti:

  1. Il segnale nella banda del NIR è composto da solo “sunglint” e da un contributo “ambientale”: non vi è, in ogni caso, alcun contributo proveniente dal fondale;
  2. Il “sunglint” osservato nelle bande del visibile può considerarsi linearmente correlato con le bande NIR.

Con riferimento al punto 1, sebbene ci si aspetti che il valore della radianza/riflettanza nelle bande del NIR sia pari a 0 in corrispondenza di fondali profondi, nella realtà così non è, soprattutto se le immagini non sono state corrette atmosfericamente, esistono valori residui di radianza dovuti a scattering ad esempio (contributo ambientale). Riguardo il punto 2 si può dire che la correlazione lineare NIR-visibile, anche se non perfetta, può essere ritenuta valida.
La tecnica, quindi, mira a creare una correlazione di tipo lineare tra le bande del NIR e le bande del visibile.

Un esempio di applicazione del modello sviluppato da Luigi Dattola, a sinistra l'immagini originale, a destra l'immagine elaborata. Immagini Satellitari WorldView-2 Maxar

Come hai implementato questo algoritmo?

Il modello utilizzato per produrre immagini senza sunglint è stato implementato nello Spatial Modeler di ERDAS IMAGINE e consente, in pochi passaggi, di ottenere elaborati corretti sia che derivino da immagini satellitari, aeree o riprese da drone. Fondamentale è che nell’immagine siano riconoscibili porzioni per i quali si ha la ragionevole certezza che si tratti di fondali sufficientemente profondi. Nelle aree così individuate si procede al campionamento di piccole porzioni di superficie (creazione AOI) con sunglint di intensità differenti e valori percepiti bassi, medi e alti. Tale parametro assieme all’immagine da correggere andrà inserito nel modello che restituirà l’immagine corretta. Nel caso in esame è stata utilizzata un’immagine WV2 ripresa il 15 giugno 2015.

Per chi avesse interesse ad approfondire l’argomento, suggerisco di visitare questo link, dove si trova la pubblicazione di Hedley (2005) o di testare l'algoritmo da me sviluppato e che ho condiviso  con la comunità internazionale di utenti del software ERDAS IMAGINE.


Come scaricare l'algoritmo per la rimozione del sunglint

A breve il modello sarà reso disponibile in una sezione dedicata del sito di Planetek Italia, nel frattempo chi volesse testarlo può inviare una richiesta all'indirizzo mail hexagon@planetek.it


Bibliografia

HOCHBERG, E.J., ANDRE´FOUE¨T, S. and TYLER, M.R., 2003

Sea surface correction of high spatial resolution Ikonos images to improve bottom mapping in near-shore environments. IEEE Transactions on Geoscience and Remote Sensing, 41, pp.1724–1729.

J. D. HEDLEY*, A. R. HARBORNE and P. J. MUMBY – 2005

Simple and robust removal of sun glint for mapping shallow-water benthos. International Journal of Remote Sensing Vol. 26, No. 10, 2107–2112


12 aprile 2021

Tutorial: Deep Learning per il riconoscimento automatico di oggetti sulle immagini satellitari

Abbiamo  pubblicato un video tutorial gratuito che permette di costruire e utilizzare da zero, con il software ERDAS IMAGINE della Hexagon, degli algoritmi di Deep Learning per il riconoscimento automatico di oggetti sulle immagini (satellitare, aeree o da drone).

Risultato del video tutorial con mappatura automatica delle palme

In particolare gli algoritmi (Spatial Models) costruiti in questo tutorial permettono di individuare automaticamente le chiome delle palme in un'immagine e di fornirle sottoforma di vettoriale (shapefile)
I principi di base e la metodologia presentata nel tutorial possono essere applicati a qualsiasi genere di oggetto, per cui lo stesso algoritmo costruito potrà essere utilizzato per altre tipologie di oggetti. 

Registrati per guardare il video corso gratuito

Chi volesse approfondire e testare il software può richiedere gratuitamente il tutorial in italiano, i dati demo e una licenza di prova del software ERDAS IMAGINE Professional contattandoci all'indirizzo hexagon@planetek.it 


18 marzo 2021

Segmentazione di immagini in ERDAS IMAGINE

Nell'ambito dell'image processing,  per segmentazione si intende un processo che raggruppa i pixel di una immagine in segmenti o "cluster", in  funzione del valore del pixel e della loro posizione.


Pixel collegati spazialmente e che hanno valori simili vengono raggruppati in un unico segmento o cluster.
La segmentazione è di presente di frequente come step intermedio in workflow più complessi, finalizzati ad esempio all'estrazione di oggetti (feature extraction) o alla classificazione ad oggetti di una immagine (object based classification) e viene seguita spesso da una conversione raster > vettoriale dei segmenti

In ERDAS IMAGINE sono disponibili due tool di segmentazione:
  • Image Segmentation;
  • FLS Image Segmentation
Li trovate sotto Raster > Unsupervised. Il secondo (FLS) è disponibile anche in versione Spatial Modeler. Di recente, per un corso di formazione, abbiamo approfondito il funzionamento di questi due algoritmi, indagando il significato e il funzionamento dei vari parametri che li controllano. Trovate la presentazione, in versione pdf, qui:


Nella presentazione ci sono anche degli esercizi, che potete rifare utilizzando delle immagini Sentinel-2.
Nei prossimi articoli vedremo come utilizzare la segmentazione in abbinamento ad algoritmi di deep learning, per la classificazione ad oggetti. Per ulteriori informazioni scrivete a hexagon@planetek.it

10 marzo 2021

Anomaly Detection su dati iperspettrali PRISMA in ERDAS IMAGINE

Nell'ambito dell'image processing, l'anomaly detection è il processo attraverso il quale si analizza un'immagine di input per identificare quei pixel che hanno una firma spettrale che si discosta notevolmente dalla maggior parte degli altri pixel nell'immagine.

Lo scenario applicativo più semplice è quello in cui non si conosce né la firma del materiale di interesse né la firma del background. Ci si può chiedere: "C'è qualcosa di insolito in questa scena?" Esempi potrebbero essere dei veicoli in un'area disabitata o la vegetazione in un terreno desertico. 

Nel video di seguito viene mostrato un esempio di applicazione dell'algoritmo di Anomaly Detection, disponibile in ERDAS IMAGINE, applicato su un'immagine acquisita dal sensore iperspettrale dell'AGENZIA SPAZIALE ITALIANA - PRISMA - su un'area a sud della Sardegna il 4 Ottobre del 2019. 

L'algoritmo, applicato su un'area coperta da foreste, permette di individuare facilmente delle strutture artificiali isolate (palazzi, antenne, ecc.), come conferma anche la visualizzazione delle stesse aree in Google Earth (è possibile sincronizzare la vista di ERDAS IMAGINE a quella di Google Earth, mediante il tab apposito).

Per ulteriori informazioni contattare hexagon@planetek.it


04 marzo 2021

Machine Learning e Deep Learning in ERDAS IMAGINE: un bignami

Il Machine Learning è un sottoinsieme dell'intelligenza artificiale che utilizza metodi statistici per consentire ai sistemi di apprendere senza essere programmati esplicitamente. Questo di solito comporta l'utilizzo di algoritmi di addestramento (training) e la disponibilità di dati di esempio. Il deep learning è una branca del machine learning che utilizza le Deep Neural Networks (Reti Neurali Profonde) ovvero algoritmi ispirati alla struttura e alla funzione del cervello. 

Il software di image processing ERDAS IMAGINE dispone di diversi tipi di algoritmi di machine learning e deep learning pensati principalmente per tre tipologie di applicazioni:
  • Classificazione supervisionata di immagini, mediante approccio pixel based o object based;
  • Riconoscimento automatico di oggetti;
  • Utilizzo di algoritmi regressione (algoritmi predittivi);
Gli algoritmi di deep learning, disponibili in ERDAS IMAGINE, sono utilizzati per il riconoscimento automatico degli oggetti, tutte le altre applicazioni vengono tramite algoritmi di Machine Learning.


Differenza tra Machine Learning e Deep Learning (in ERDAS)

L'immagine seguente sintetizza le differenze tra algoritmi di Machine Learning e Deep Learning in ERDAS. Lo step di training nel caso degli algoritmi di Machine Learning è semplificato dal punto di vista computazionale: questi algoritmi richiedono infatti un numero inferiore di dati di training con dei tempi ridotti di calcolo, anche utilizzando la CPU; nel caso degli algoritmi di deep learning l'utilizzo delle GPU (n.b. Nvidia Quadro) è fondamentale per poter abbattere i tempi di processing. 



La differenza chiave tra algoritmi di Machine Learning e Deep Learning (in ERDAS) è riscontrabile però nella seconda riga: nel caso degli algoritmi di machine learning è l'operatore umano (esperto di elaborazione dati) che deve "scegliere" quali attributi definire e costruire per i dati di training, nel caso degli algoritmi di deep learning è l'algoritmo stesso che sceglie quali attributi utilizzare, partendo dall'analisi delle immagini.


Algoritmi per la classificazione supervisionata di immagini

Tutti gli algoritmi di intelligenza artificiale di ERDAS sono disponibili nello Spatial Modeler, se non sapete cosa sia potete recuperare tramite questo articolo e questo webinar. Per la classificazione delle immagini (pixel based o object based), troviamo i seguenti algoritmi:
  • CART;
  • K-Nearest Neighbors
  • Random Forest;
  • Support vector Machine (SVM);
  • Naive Bayes;


Reti Neurali per il riconoscimento di oggetti

Per il riconoscimento automatico di oggetti su un'immagine (satellitare, aerea o da drone) all'interno dello Spatial Modeler troviamo le seguenti reti neurali:

  • Inception:  una rete neurale convoluzionale a 22 strati sviluppata da Google;
  • Faster R-CNN RESNET 101: qui trovate qualche informazione in più su questa rete;
E' possibile inoltre, utilizzando lo Spatial Modeler, costruire in modo grafico delle reti neurali personalizzate, definendo i diversi nodi, i vari livelli, ecc. 
Il grande vantaggio di usare delle reti neurali all'interno dello Spatial Modeler è quello di poter essere subito operativi e non dover impiegare del tempo a predisporre environment, librerie, ecc.: le reti sono lì pronte che aspettano solo di essere addestrate per riconoscere l'oggetto che ti interessa.
Utilizzando ERDAS IMAGINE è possibile anche costruire un dataset di dati di training per algoritmi di machine Learning (su questo punto ci torneremo in uno dei prossimi articoli).


Algoritmi di Regressione per Analisi Predittive

Gli algoritmi di regressione disponibili in ERDAS IMAGINE sono i seguenti:
  • Cart Regressor;
  • Random Forest Regressor;
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La regressione si differenzia nettamente dalla classificazione, poiché quest’ultima si limita a discriminare gli elementi in una determinato numero di classi (label), mentre nella regressione l’input è un dato e il sistema ci restituisce un valore  (predetto, solitamente reale).

Se vi interessa approfondire il tema del machine learning e del deep learning con ERDAS IMAGINE, richiedi una copia gratutita del WhitePaper sul Machine Learning in ERDAS IMAGINE, scrivendo una mail all'indirizzo hexagon@planetek.it



22 febbraio 2021

Dati satellitari ad altissima risoluzione e ERDAS IMAGINE per l'aggiornamento della linea di costa: un caso di studio dell'Università dell'Aquila


Condividiamo di seguito una recente esperienza del gruppo di ricerca del laboratorio di Geomatica dell'Università dell'Aquila presso il Dipartimento di Ingegneria Civile, Edile-Architettura e Ambientale (DICEAA), istituito e diretto dalla Professoressa Donatella Dominici, che riguarda l'utilizzo di ERDAS IMAGINE e dei dati satellitari ad altissima risoluzione per lo studio della linea di riva.
Conoscere il territorio nel quale viviamo è un importante passo per la sua conservazione e manutenzione. L'ambiente costiero è un ambiente dinamico, soggetto a continui cambiamenti, quali, ad esempio: geologici, geomorfologici, idrodinamici, biologici, climatici e antropici. Il monitoraggio di queste aree risulta, quindi, essere fondamentale per la salvaguardia, sia del patrimonio culturale che della popolazione che vive in queste zone. L'attuale disposizione di tecnologie avanzate, come le immagini satellitari, permette di studiare e analizzare vaste aree del territorio in maniera rapida e fornisce a utenti professionali e ad istituzioni, quali Regioni, Protezione Civile, etc.., la possibilità di gestire prontamente le emergenze ambientali.


L'attuale laboratorio di Geomatica. A partire da sinistra: Professoressa D. Dominici, Ricercatrice M. Alicandro, Dottoranda S. Zollini
L'attuale Laboratorio di Geomeatica.
A partire da sx: Professoressa D. Dominici, Ricercatrice M.Alicandro, Dottoranda S.Zollini
Il laboratorio di Geomatica dell'Università dell'Aquila ha, fin dalla sua fondazione, riposto grande impegno nelle attività riguardanti l’analisi delle aree costiere.
Dal 2010 il laboratorio è partito con l'analisi
di immagini satellitari ad alta ed altissima risoluzione e negli ultimi anni sta lavorando  sulle potenzialità  del radar (SAR).
 

Figura 1: Una delle fasi di pre-elaborazione, inserimento dei GCP
(Ground Control Points) per l'ortorettifica di immagini satellitari
Con il software ERDAS IMAGINE Professional, per esempio,  è stato possibile pre-elaborare le immagini satellitari (in figura 1 è rappresentata una delle fasi di pre-elaborazione) e, in seguito, applicare indici e algoritmi comunemente utilizzati in letteratura per questi scopi. Tra i più efficaci vanno sicuramente menzionati il WVWI (WorldView Water Index, Figura 2) e l'NDVI (Normalized Difference Vegetation Index) dai quali è stato possibile definire ed estrarre in maniera netta la linea di riva. Anche la classificazione (figura 3) ha fornito risultati interessanti. Da questa analisi è stato possibile evidenziare le differenze di profondità del mare e quelle tra sabbia asciutta e bagnata.

I principali vantaggi che risiedono nell'utilizzo di tecniche di enhancement e nell'applicazione di filtri e/o indici su immagini satellitari sono:
  • La disposizione di immagini e dati in tempi brevi;
  • I costi relativamente contenuti rispetto alle tecniche tradizionali;
  • La possibilità di acquisire immagini di grandi estensioni in qualunque zona (anche in quelle critiche dal punto di vista della sicurezza dell'operatore);
  • L'alta ripetibilità della presa (dipendente dal tempo di rivisitazione dei satelliti).

Figura 2: Applicazione del WorldView Water Index 
su immagine satellitare ad altissima risoluzione

 Effettuando un'analisi multi-temporale, è inoltre  possibile eseguire una change detection per  individuare le trasformazioni territoriali avvenute nell'arco di tempo di riferimento, quali, ad esempio, eventuali zone erose e/o sedimentate, sia a livello qualitativo e quantitativo.  In questo modo è 
 possibile garantire lo sviluppo di opportuni piani di 
 intervento per la salvaguardia del territorio.

Figura 3: Classificazione su immagine satellitare ad altissima risoluzione

RIFERIMENTI
  1. ALICANDRO, M., BAIOCCHI, V., BRIGANTE, R., & RADICIONI, F. (2019). Automatic Shoreline Detection from Eight-Band VHR Satellite Imagery. Journal of Marine Science and Engineering, 7(12), 459.
  2. BAIOCCHI, V., DEL GUZZO, F., DOMINICI, D., & LELO, K. (2007, June). Comparative methods for the extraction of coastal areas from VHR images. In Proceedings 27th EARSeL Symposium (pp. 7-9).
  3. DE GIROLAMO P, BELTRAMI G.M, VISCA C, DEL GUZZO F, DOMINICI D. (2006). Monitoraggio costiero a scala regionale mediante utilizzo di immagini satellitari ad alta risoluzione. IDRA. 10-15 settembre. 
  4. DOMINICI D, BAIOCCHI V., RADICIONI F., BRIGANTE R. (2012). Dètermination de la ligne de còte par des imabes multi-spectrales haute rèsolution. GÉOMATIQUE EXPERT, vol. 86, p. 28-35, ISSN: 1620-4859.
  5. DOMINICI D., BAIOCCHI V., DEL GUZZO F., Utilisation des images a’ haute rèsolution pour la surveillance d’unè zone cotiere. Geomatique Expert- N.51- Jun-Juillet 2006- ISSN 1620-4859.
  6. DOMINICI D., BELTRAMI G.M., DE GIROLAMO P., Ortorettifica di immagini satellitari ad alta risoluzione finalizzata al monitoraggio costiero a scala regionale. STUDI COSTIERI –Dinamica e difesa dei litorali- Gestione integrata della fascia costiera. N.11 2006 .ISSN 1129-8588.
  7. DOMINICI, D., ZOLLINI, S., ALICANDRO, M., DELLA TORRE, F., BUSCEMA, P. M., & BAIOCCHI, V. (2019). High Resolution Satellite Images for Instantaneous Shoreline Extraction Using New Enhancement Algorithms. Geosciences, 9(3), 123.
  8. PALAZZO, F., BAIOCCHI, V., DEL FRATE, F., GIANNONE, F., DOMINICI, D., LATINI, D. & REMONDIERE, S. (2011). Remote Sensing as a Tool to Monitor and Analyse Abruzzo Coastal Changes: Preliminary Results from the ASI COSMO-Coast Project. In 5th EARSeL Workshop on Remote Sensing of the Coastal Zone Proceedings.
  9. PALAZZO, F., BAIOCCHI, V., LELO, K., MILONE, M. V., MORMILE, M., MINCHELLA, A.& DOMINICI, D. (2012). Observing Coastlines with Satellite Data: a Case Study in Abruzzo (Italy). In Proc. 32 EARSEL Symposium Advances in Geosciences (Eds KG Perakis, AK Moysiadis).
  10. PALAZZO, F., LATINI, D., BAIOCCHI, V., DEL FRATE, F., GIANNONE, F., DOMINICI, D., & REMONDIERE, S. (2012). An application of COSMO-Sky Med to coastal erosion studies. European Journal of Remote Sensing, 45(1), 361-370.
  11. ZOLLINI, S., ALICANDRO, M., CUEVAS-GONZÁLEZ, M., BAIOCCHI, V., DOMINICI, D., & BUSCEMA, P. M. (2020). Shoreline Extraction Based on an Active Connection Matrix (ACM) Image Enhancement Strategy. Journal of Marine Science and Engineering, 8(1), 9.




15 febbraio 2021

Scopri le novità di ERDAS IMAGINE 2020 Update 2

Una nuvola di punti estratta da una stereocoppia Maxar WorldView-3, utilizzando il nuovo tool di ERDAS, DSM EXTRACTOR

La Hexagon ha da poco rilasciato un aggiornamento di ERDAS IMAGINE 2020: l’Update 2, release 16.6.0.2000.

Ci sono diverse novità interessanti che  possono rendere più semplice e performante il tuo lavoro con le immagini satellitari, da aereo o da drone:

  • IMAGINE DSM Extractor: Questo nuovo modulo dispone di algoritmi SGM (Semi-Global Matching) che permettono di generare, in modo più rapido, modelli 3D della superficie terrestre molto accurati e dettagliati. Sostituisce i precedenti algoritmi presenti in AutoDTM e permette di generare modelli 3D da stereocoppie satellitari (ad esempio dati Maxar Worldview-3 o OPSAT-3000) e da dati aerei.

  • Nuovi sensori e formati supportati: questo update di ERDAS gestisce diversi nuovi sensori, tra i più importanti il sensore iperspettrale dell’Agenzia Spaziale Italiana PRISMA, i minisatelliti ottici della costellazione AIRBUS Pleiades Neo e della costellazione Planet, i minisatelliti SAR della costellazione ICEYE e i dati del satellite Sentinel 3 del programma Copernicus;

  • Nuovi tool per il processamento di dati SAR Sentinel-1: tra cui il tool per la calibrazione radiometrica e quello per la correzione dei parametri orbitali;

  • Possibilità di gestire in ERDAS IMAGINE dati SAR acquisiti da drone: grazie alla funzionalità In-Phase e Quadrature to/from Magnitude e Phase conversion;

  • Diversi nuovi operatori dello Spatial Modeler: lo strumento di ERDAS che permette di automatizzare i flussi di lavoro si arricchisce di anno in anno di nuove funzionalità che permettono di processare grandi quantità di dati in modo automatico. Questo Update contiene nello specifico numerosi operatori per la fotogrammetria aerea;

  • Altre nuove funzionalità che migliorano l’interfaccia e la user-experience (opzioni nel tool Image Chain, Layout Machine Learning, altri tool, ecc.).

Per una descrizione dettagliata delle nuove funzionalità ti invito a consultare il documento “Release Guide”, scaricabile dal seguente link.

Ti ricordo inoltre che, qualche mese fa, Planetek Italia ha rilasciato gratuitamente, per tutti gli utenti ERDAS italiani con un contratto di manutenzione attivo, il plugin “PRISMA for ERDAS IMAGINE”; questo plugin consente di processare i dati iperspettrali del sensore PRISMA della Agenzia Spaziale Italiana ottenendo automaticamente utili informazioni sulla zona di interesse. Se sei interessato al plugin, o a conoscere meglio le possibilità che offre il sensore PRISMA, 

Per ricevere una licenza demo di ERDAS IMAGINE 2020 e/o del plugin gratuito per gestire i dati PRISMA contattaci all'indirizzo hexagon@planetek.it