Si svela tra pochi giorni, più precisamente il 14 aprile, la nuova Audi Q4 e-tron. Sia lei sia la variante Sportback verranno infatti presentati durante l’evento “Celebration of progress” in programma mercoledì prossimo alle ore 19:00, anche sui canali social di Audi Italia così come sul sito ufficiale.
Primi SUV compatti ad adottare la piattaforma modulare MEB del gruppo Volkswagen, la stessa di ID.3 e ID.4, nuove Audi Q4 e-tron e Q4 Sportback e-tron preparano il debutto di una tecnologia destinata a cambiare la vita a bordo. Si tratta dell’head-up display con realtà aumentata, sistema in grado di arricchire l’esperienza percettiva vissuta dal guidatore in posizione di guida.
Oltre al nuovo display MMI touch da 11,6”, il più ampio mai adottato da una vettura della Casa tedesca, le nuove elettriche tedesche proporranno anche la nuova firma luminosa commutabile dopo l’acquisto (4 le configurazioni) e la nuova generazione dei volanti touch, con diverse novità anche al rinnovato Audi virtual cockpit plus.
Torniamo però al protagonista di queste righe, l’inedito head-up display con realtà aumentata di nuova Audi Q4 e-tron. Più comunemente conosciuta con l’acronimo AR (Augmented Reality), nota per essere comparsa in film come “Minority Report”, questa tecnologia si è via via diffusa dall’ambito militare (primi anni ‘90), all’ambito della chirurgia di precisione, fino a fare la sua comparsa nel mondo dell’automobile.
Non confondetevi con la Virtual Reality. Quest’ultima, infatti, ricrea ambientazioni illusorie totalmente distaccate dall’ambiente circostante, mentre la realtà aumentata coniuga elementi concreti e virtuali, divenendo un vero e proprio “sesto senso” in abitacolo. Ora, la Casa dei quattro anelli attinge ulteriormente alla tecnologia AR alzando l’asticella della sicurezza, dell’intuitività e del comfort delle proprie vetture grazie all’head-up display con realtà aumentata, al debutto con i SUV compatti elettrici della gamma Q4 e-tron.
Il dispositivo studiato da Audi proietta sul parabrezza le principali informazioni in funzione di due livelli: quello di stato, che riguarda il comportamento della vettura, e quello AR. Le avvertenze dei sistemi di assistenza, le frecce di svolta legate alla navigazione e i relativi punti di partenza e destinazione vengono mostrati come contenuti AR e visualizzati in modo dinamico, così che appaiano parte integrante del mondo esterno. Le indicazioni appartenenti alla realtà virtuale “fluttuano” a circa dieci metri dal conducente oppure, in funzione delle condizioni di guida, a distanze superiori. Le informazioni si affidano all’interazione tra intelligenza artificiale, machine learning e connettività Car-to-X, quest’ultima rafforzata da un’innovativa piattaforma dati in grado di rilevare in tempo reale e condividere gli input sulle variazioni d’aderenza del manto stradale, così da favorire la sicurezza, specie in condizioni di scarsa visibilità, e consentire al guidatore di non distrarre l’attenzione dalla strada.
L’area di visualizzazione dei contenuti AR equivale a un monitor con diagonale di 70 pollici. Nella sezione inferiore, come accennato, vengono proiettate le informazioni di stato relative al veicolo come la velocità di marcia, la segnaletica stradale e le indicazioni dei sistemi d’assistenza e navigazione.
Per i più tecnici, tutto nasce grazie alla Picture Generation Unit (PGU): un display LCD invia i fasci di luce a due specchi dalla superficie piatta, mentre speciali elementi ottici dividono le componenti destinate alle visualizzazioni a breve e a lungo raggio. Gli specchi piatti dirigono i fasci di luce verso un ampio riflettore concavo a regolazione elettrica. Da qui, gli input raggiungono il parabrezza, che li visualizza nel cosiddetto eyebox, orientandoli verso il conducente. Quest’ultimo percepisce i simboli con una nitidezza pari all’ambiente reale.
Sul versante software, il dispositivo denominato AR Creator – un’unità di calcolo integrata dalla piattaforma modulare d’infotainment MIB 3 – esegue il rendering dei simboli da visualizzare alla frequenza di 60 frame al secondo e li adegua alla geometria dell’ottica di proiezione. Parallelamente, ne stabilisce mediante molteplici calcoli il posizionamento nell’ambiente, parametrando le informazioni rilevate dalla telecamera anteriore, dal sensore radar e dalla navigazione. Il software è in grado di gestire oltre 600.000 stringhe di programmazione: il 50% in più, pensate, rispetto al sistema di controllo del primo Space Shuttle.
commenti
Loading…