giovedì, Maggio 16, 2024
HomeAZIENDEROHM sposta l’intelligenza artificiale sull’edge con un dispositivo a bassissimo consumo

ROHM sposta l’intelligenza artificiale sull’edge con un dispositivo a bassissimo consumo

L’intelligenza artificiale sull’edge consente di prevedere i guasti in tempo reale senza la necessità di connessione al cloud.

ROHM ha sviluppato un chip con capacità AI per gli endpoint dei sistemi IoT. Utilizza l’intelligenza artificiale per il rilevamento predittivo dei guasti nei dispositivi elettronici che utilizzano motori, con un consumo energetico particolarmente ridotto.

In generale, i chip AI eseguono l’apprendimento e le inferenze per ottenere funzioni di intelligenza artificiale. L’apprendimento richiede l’analisi di una grande quantità di dati, ordinati in un database e aggiornati secondo necessità mentre il chip che esegue l’apprendimento deve disporre di una notevole potenza di calcolo che consuma necessariamente una grande quantità di energia. Fino ad ora è stato difficile sviluppare chip AI in grado di apprendere sul campo consumando poca energia per applicazioni IoT edge.


Basato su un “algoritmo di apprendimento su dispositivo” sviluppato dal professor Matsutani della Keio University, il nuovo chip AI di ROHM è costituito principalmente da un acceleratore AI e dalla CPU a 8 bit ad alta efficienza “tinyMicon MatisseCORE” di ROHM. La combinazione dell’acceleratore AI ultracompatto da 20.000 gate con una CPU ad alte prestazioni consente l’apprendimento e l’inferenza con un consumo energetico particolarmente basso, di poche decine di mW (1000 volte più piccolo rispetto ai chip Learning AI convenzionali). Ciò consente la previsione dei guasti in tempo reale in un’ampia gamma di applicazioni, poiché i “risultati del rilevamento delle anomalie” possono essere generati dove è installata l’apparecchiatura senza coinvolgere un server cloud.
Guardando al futuro, ROHM prevede di incorporare l’acceleratore AI utilizzato in questo chip AI in vari prodotti IC per motori e sensori. L’inizio della commercializzazione è previsto per il 2023, con la produzione in volumi prevista per il 2024.

Con l’avanzare delle tecnologie IoT, della comunicazione 5G e delle tecniche digital twin, il cloud computing dovrà evolversi; non sempre, infatti, l’elaborazione di tutti i dati sui server cloud è la soluzione migliore in termini di carico, costo e consumo energetico.” ha dichiarato il Professor Hiroki Matsutani, Dipartimento di Informazione e Informatica, Keio University, Giappone. “Con l'”apprendimento su dispositivo” e gli “algoritmi di apprendimento su dispositivo” che abbiamo sviluppato, miriamo a ottenere un’elaborazione dei dati più efficiente sul lato edge per costruire un ecosistema IoT migliore. La collaborazione con ROHM ha reso possibile l’implementazione in modo economicamente vantaggioso di queste tecnologie facendo avanzare ulteriormente la tecnologia dei circuiti di apprendimento su dispositivo. Mi aspetto che il prototipo di chip AI venga integrato in molti prodotti IC di ROHM nel prossimo futuro“.



A proposito di tinyMicon MatisseCORE
tinyMicon MatisseCORE (Matisse: Micro arithmetic unit for tiny size sequencer) è la CPU a 8 bit proprietaria di ROHM sviluppata per l’ecosistema IoT allo scopo di rendere i circuiti integrati analogici più intelligenti.

Un set di istruzioni ottimizzato per applicazioni embedded insieme alla più recente tecnologia di compilazione forniscono un’elaborazione aritmetica più rapida e una dimensione del codice programma più ridotte. Sono supportate anche applicazioni ad alta affidabilità, come quelle che richiedono la qualificazione secondo gli standard di sicurezza funzionale ISO 26262 e ASIL-D, mentre la “funzione di debug in tempo reale” proprietaria impedisce al processo di debug di interferire con il funzionamento del programma, consentendo tuttavia il debug mentre l’applicazione è in esecuzione.


Dettaglio del chip AI di ROHM

Il prototipo di chip AI (Prototype Part No. BD15035) si basa su un algoritmo di apprendimento su dispositivo (circuito AI di rete neurale a tre strati) sviluppato dal professor Matsutani della Keio University. ROHM ha ridimensionato il circuito AI da 5 milioni di gate a soli 20.000 (lo 0,4% delle dimensioni) per riconfigurarlo per la commercializzazione come acceleratore AI proprietario (AxlCORE-ODL) controllato dalla CPU a 8 bit ad alta efficienza tinyMicon MatisseCORE di ROHM che consente l’apprendimento AI e l’inferenza con un consumo energetico estremamente basso, di poche decine di mW. Ciò rende possibile l’output numerico dei “risultati di rilevamento delle anomalie” per modelli di dati di input sconosciuti (ad es. accelerazione, corrente, luminosità, voce) nel sito in cui è installata l’apparecchiatura senza coinvolgere un server cloud o richiedere un precedente apprendimento dell’IA.

Per la valutazione del chip AI, ROHM fornisce una scheda di valutazione dotata di terminali compatibili con Arduino che possono essere integrati con una scheda sensore di espansione per il collegamento a un MCU (Arduino). I moduli di comunicazione wireless (Wi-Fi e Bluetooth) insieme alla memoria EEPROM da 64kbit sono montati sulla scheda e consentono di visualizzare su display il funzionamento del chip AI e dei sensori.

Il seguente video illustra il funzionamento del chip AI di ROHM: