AI:

Nella categoria Intelligenza Artificiale (AI in inglese che è l’acronimo di Artificial Intelligence) trovate numerosi articoli sull’argomento, per approfondire il machine learning e scoprire nelle sue varie applicazioni questo straordinario argomento.

ChatGPT: la rivoluzione nel mondo dei chatbot

ChatGPT sta per Chat Generative Pre-trained Transformer. Si tratta di un modello linguistico basato sull'Intelligenza Artificiale sviluppato da OpenAI, la stessa organizzazione di ricerca sull'Intelligenza Artificiale, che ha creato DALL-E e tante altre applicazioni. Nella sostanza, ChatGPT è un prototipo di chatbot basato sull'Intelligenza Artificiale e specializzato nella conversazione con un utente umano tramite testo scritto. In questo articolo andremo ad analizzare le caratteristiche di questo nuovo chatbot dalle immense potenzialità. Introduzione Il modello alla base di ChatGPT è stato addestrato su un'enorme quantità di dati di testo per generare risposte, agli input di testo in linguaggio naturale, simili …

Algoritmi di apprendimento automatico per il riconoscimento dei raggi gamma

Il follow-up degli allarmi scientifici esterni al progetto AGILE ricevuti dai rilevatori di Gamma-Ray Bursts (GRB) e di Onde Gravitazionali (GW), cioè la fase di controllo periodico e programmato di una ricerca scientifica tramite contributi esterni, è una delle attività principali del team del telescopio spaziale AGILE (Astrorilevatore Gamma ad Immagini LEggero). Il team AGILE ha sviluppato una pipeline automatica di analisi in tempo reale per analizzare i dati del rilevatore di immagini a raggi gamma per rilevare possibili controparti ottiche delle GW nell'intervallo di energia 0,1-10 GeV. Questo lavoro presenta un nuovo approccio per il rilevamento dei GRB …

Il Neuromorphic Computing è il futuro prossimo dell’IA

L’Intelligenza Artificiale è oggi considerata a tutti gli effetti la principale tecnologia computazionale alla base del progresso tecnologico. I paradigmi computazionali dell'IA, declinata nelle sue varie forme, vengono già ampiamente utilizzati per gestire e fornire servizi di ricerca di informazioni in rete, per il riconoscimento di immagini o vocale. Il tutto, mentre il mondo è letteralmente dominato dal potere dei dati. Anche l'IA sta subendo una fase di profonda trasformazione ed evoluzione verso nuovi modelli computazionali in grado di superare gli attuali limiti di impiego dei tradizionali paradigmi di calcolo, ancora troppo intensivi, anche se meno complessi da progettare. …

Connettori ibridi per l’ecosistema IoT e il Machine Learning

I connettori elettronici sono componenti fondamentali poiché supportano l'evoluzione in un'era molto dinamica basata sui dati e sui progressi tecnologici. Oggi come non mai è necessario osservare, misurare, archiviare, elaborare e trasmettere enormi quantità di dati. Nasce quindi l’esigenza di dare vita a una nuova generazione di connettori ibridi appositamente pensati per i sistemi IoT e Machine Learning. IoT e AI determinanti per il mercato dei connettori Sono molti i fattori chiave che guidano il cambiamento nel mercato globale dei connettori elettronici e dei cavi. Innanzitutto, la trasformazione digitale dell’Industry 4.0 che ha radicalmente rivoluzionato qualsiasi settore, i processi …

Apacer e ADLINK lanciano congiuntamente soluzioni robuste di Edge Computing che accelerano lo sviluppo diversificato delle applicazioni di Intelligenza Artificiale

L'espansione delle tecnologie 5G e AI, insieme agli scenari applicativi dell'edge computing sempre più diversi, hanno creato un'opportunità per la trasformazione di vari mercati verticali di applicazioni. In risposta alle sfide emergenti di storage ed elaborazione, Apacer e ADLINK, uno dei principali produttori di computer industriali, hanno collaborato su applicazioni di difesa e networking. Insieme, hanno integrato con successo la forza tecnica di Apacer nelle applicazioni di storage industriale con la ricca esperienza di ADLINK nello sviluppo di piattaforme di edge computing AI. Ora, propongono soluzioni ai dilemmi delle applicazioni emergenti, lanciano congiuntamente soluzioni di edge computing con elevata …

Intelligenza Artificiale: ultimi trend e prospettive di sviluppo

Negli ultimi anni l'Intelligenza Artificiale si è diffusa in diversi settori in seguito all'aumento di strumenti, applicazioni e piattaforme basate su AI e Machine Learning (ML). Queste nuove tecnologie hanno avuto un importante impatto in svariati contesti quali assistenza sanitaria, robotica, automazione e molte altre aree. Moltissime aziende stanno investendo nella ricerca sull'IA per scoprire nuove possibili applicazioni che permettano di avvicinare sempre più l'Intelligenza Artificiale agli esseri umani. Si prevede che entro il 2025 i soli ricavi dai software di Intelligenza Artificiale raggiungeranno oltre i 100 miliardi di dollari a livello globale come indicato nella figura seguente che …

DeepSloth: un nuovo tipo di attacco per le reti neurali

Le reti neurali profonde (DNN) hanno permesso scoperte in molti campi, come la classificazione delle immagini e il riconoscimento vocale. Nell'eseguire questi compiti, la struttura di una DNN assomiglia alla percezione umana: combinare rappresentazioni semplici, come i bordi, in rappresentazioni più complesse, come volti. Tuttavia, le persone possono imparare euristiche più semplici che permettono loro di eseguire anche compiti complessi, come guidare o suonare il pianoforte, con poco sforzo mentale. Quando euristiche più semplici sono adeguate per completare il compito, l'uso di rappresentazioni complesse porta al sovrapensiero. Il sovrapensiero umano è considerato uno spreco perché porta a un processo …

Texas Instruments presenterà all’embedded world processori innovativi per l’Edge AI con consumo energetico dimezzato

Texas Instruments presenta nuovi processori Sitara AM62 che contribuiscono ad espandere l'elaborazione con Intelligenza Artificiale (AI) per le applicazioni innovative di nuova generazione. Nello specifico, TI presenterà i nuovi processori AM62 dimostrando soluzioni per l’Edge AI e applicazioni HMI per la ricarica di veicoli elettrici, direttamente allo stand n. 215 nella hall 3A, in occasione dell'embedded world che si terrà a Norimberga, in Germania, il 21-23 giugno 2022. Introduzione Texas Instruments Incorporated è una società leader a livello mondiale nel settore dei semiconduttori, specializzata nella progettazione, produzione, test e vendita di chip di elaborazione analogici e integrati per mercati …

Avnet Silica presenta tecnologie AI/ML innovative all’Embedded World 2022

All'Embedded World Exhibition & Conference, Avnet Silica presenterà tecnologie AI/ML innovative e funzionalità di Intelligenza Artificiale all'avanguardia, in partnership con i principali produttori. Con un team di oltre 200 ingegneri applicativi e tecnici specializzati, Avnet Silica segue tutte le fasi di un progetto, dall’ideazione fino all’avvio della produzione. Avnet Silica è una business unit regionale di Avnet con headquarters europei in Belgio.  Introduzione Avnet Silica, divisione europea di Avnet specializzata in semiconduttori, nonché tra i principali distributori tecnologici a livello globale, sarà presente con un proprio spazio a Embedded World, la manifestazione leader per la community embedded, che avrà …

EBV Elektronik amplia il portafoglio di soluzioni IA con la tecnologia di Hailo

EBV Elektronik è una società Avnet fondata nel 1969. Ad oggi, EBV Elektronik è il principale specialista nella distribuzione europea di semiconduttori ed opera in 65 sedi dislocate in 29 paesi dell'area EMEA (Europa - Medio Oriente - Africa). EBV Elektronik ha annunciato la firma di un nuovo accordo di distribuzione per la regione EMEA con Hailo, produttore all'avanguardia di chip per Intelligenza Artificiale (AI). EBV Elektronik amplia il portafoglio di soluzioni per Intelligenza Artificiale con la tecnologia altamente innovativa di Hailo, che offre un'ampia gamma di acceleratori AI, tra cui l'innovativo processore AI Hailo-8™ e i moduli di …

La tecnologia Computing-in-Memory di Microchip

La tecnologia Computing-in-Memory di Microchip risolve le sfide dell'elaborazione vocale. La soluzione di memoria integrata SuperFlash memBrain di Microchip consente al System on Chip (SoC) di WITINMEN di soddisfare i più elevati requisiti di costo, bassa potenza e prestazioni di elaborazione neurale. Microchip progetta e distribuisce soluzioni innovative rivolte ai mercati industriale, automobilistico, consumer,  aerospaziale e della difesa, delle comunicazioni e dell'informatica. La tecnologia Computing-in-Memory è pronta ad eliminare i massicci colli di bottiglia delle comunicazioni dati solitamente associati all'esecuzione dell'elaborazione vocale nelle applicazioni di Intelligenza Artificiale (AI), ma richiede una soluzione di memoria incorporata che esegua simultaneamente il …

Firmware 2.0 #21: AI/ML – Big Data Analytics

Oggi esce il nuovo numero della rivista di elettronica Firmware 2.0 dove troverete numerosi contenuti esclusivi per Makers e Professionisti, progetti, tutorial a puntate, articoli tecnici sui Big Data e sulla tecnologia dell'Intelligenza Artificiale, implementati in applicazioni con microcontrollori. Ecco alcuni contenuti che potrete leggere in Firmware 2.0 #21: TinyML: l’apprendimento automatico su microcontrollore, Streaming di temperatura e umidità con l’ecosistema Big Data, Intelligenza Artificiale con Arduino, Rilevamento delle intrusioni su rete CAN-bus con TinyML, e molti altri articoli e progetti.  Editoriale Intelligenza Artificiale: alla ricerca di nuove skills Cari lettori, il nuovo numero di Firmware 2.0 è dedicato …

L’Apprendimento Automatico applicato all’Astronomia

La metodologia data-driven ha attirato molta attenzione recentemente nella comunità fisica. Questo non è sorprendente poiché uno degli obiettivi fondamentali della fisica è quello di dedurre o scoprire le leggi della fisica dai dati osservativi. Il rapido sviluppo della tecnologia dell'Intelligenza Artificiale fa sorgere la domanda se queste scoperte possano essere eseguite algoritmicamente dai computer. In questo articolo parleremo del fisico Hong Qin, programmatore di un algoritmo di apprendimento che, da un insieme di dati osservativi su un reticolo spaziale, usa la teoria di campo appresa da una AI per prevedere nuove osservazioni. L'approccio di apprendimento delle teorie di …

Come utilizzare Hadoop e perché è fondamentale per i Big Data

Mentre grandi quantità di dati non strutturati rappresentano una sfida costante per le infrastrutture IT, ci sono tecnologie che permettono di gestire e rendere utile e visibile un numero sempre più crescente di informazioni. In questo articolo parliamo dell'ecosistema di una di queste tecnologie, Apache Hadoop e ne analizzeremo i vantaggi, le caratteristiche ed i limiti fino ad arrivare alle più recenti implementazioni. Introduzione Ogni giorno assistiamo ad un costante aumento di dati provenienti da più fonti, strumenti o sistemi: i Big Data. Allo stesso tempo, la loro origine è sempre più complessa: aumentano i dati non strutturati e …

Sono ora disponibili le schede industriali BiCS5 3D TLC con 112 layer di Apacer ottimizzate per Smart IoT e Riconoscimento Facciale AI

Secondo una ricerca di Mordor Intelligence, il mercato del riconoscimento facciale è stato valutato a 3,72 miliardi di dollari nel 2020 e si prevede che sarà valutato a 11,62 miliardi di dollari entro il 2026, registrando un CAGR di circa il 21,71% nel periodo di previsione. La tecnologia di riconoscimento facciale sta finalmente prendendo piede. È andata ben oltre l'utilizzo degli agenti di polizia in cerca di un sospettato su una telecamera di sorveglianza. Ora, la tecnologia smart del riconoscimento facciale basato sull'Intelligenza Artificiale è comune nelle applicazioni smart retail, finanza, trasporti e persino nell'assistenza sanitaria. Ma, con il …

TensorFlow: riconoscimento automatico di caratteri scritti a mano

Ispirate dal funzionamento del cervello umano, le reti neurali profonde (Deep Neural Network) possono risolvere compiti di classificazione con un'accuratezza mai vista prima, se addestrate con una mole adeguata di dati. Il Deep Learning è emerso negli ultimi anni come una delle principali tecnologie per la produzione di sistemi intelligenti che imparano dai dati. I framework open source, come TensorFlow, hanno reso questa tecnologia ampiamente disponibile a tutti coloro che vogliano mettersi in gioco con l'apprendimento macchina (Machine Learning). In questo articolo andremo ad illustrare un esempio di implementazione in TensorFlow di una rete neurale per il riconoscimento di …

Realizziamo una Tela Virtuale con OpenCV per Python

In questo articolo andremo ad utilizzare la libreria OpenCV in Python per realizzare un progetto che chiameremo "Tela virtuale". Tale applicazione consente di disegnare, virtualmente, sullo schermo del nostro computer utilizzando soltanto una webcam ed un pennarello. In realtà, invece del pennarello, può essere utilizzato qualsiasi oggetto di colore uniforme e che si distingua dallo sfondo. Questo perché l'applicazione sfrutta la tecnica del rilevamento del contorno basata su una maschera dell'oggetto utilizzato. Grazie ai dati in tempo reale della webcam, questa applicazione è in grado di tracciare un oggetto specifico, consentendo all'utente di disegnare sullo schermo nella posizione tracciata. …

Come trasferire uno stile pittorico su una fotografia con Python

Il trasferimento di stile è un metodo per fondere due immagini distinte e crearne una nuova. Non si tratta di una mera sovrapposizione o di un fotoritocco, ma della creazione di una nuova immagine che presenta il contenuto di una foto utilizzando però lo stile pittorico di un'altra immagine. Una rete neurale può essere addestrata per imparare uno o più stili pittorici ed in questo modo riuscire a riprodurre il contenuto di una foto utilizzando un particolare stile. In questo articolo vedremo come implementare una rete neurale pre-addestrata per il trasferimento dello stile in uno script in linguaggio Python. …

Sfide e soluzioni per lo sviluppo di applicazioni di Edge Machine Learning

AI periferica, Embedded ML, Edge ML, TinyML sono tutti sinonimi dello stesso concetto: abilitare algoritmi di Deep Learning su dispositivi embedded a bassissima potenza, aprendo la strada all'analisi e all'elaborazione periferica dei dati. In questo articolo, discutiamo le principali sfide e gli abilitatori tecnologici che dirigono l'espansione di questo campo. TinyML aprirà le porte a nuovi tipi di servizi e applicazioni edge non più basati su elaborazione cloud ma su inferenza periferica distribuita e autonomia decisionale. Introduzione Emersa negli ultimi anni come una nuova tecnologia all'intersezione tra apprendimento automatico, piattaforme embedded e software, TinyML si concentra sulla distribuzione di …

Intelligenza Artificiale con Arduino

L'attività di apprendimento automatico all'interno del campo della robotica è la tematica che maggiormente stimola la ricerca al fine di ottenere “circuiti” in grado di replicare il comportamento umano. Le difficoltà sono innumerevoli, tra cui sicuramente la potenza di calcolo richiesta che deve essere notevole al fine di poter gestire contemporaneamente sia l’acquisizione da diversi sensori che l’elaborazione delle informazioni, con la produzione di un risultato finale (output) elaborato in autonomia dall’Intelligenza Artificiale. In questo articolo affronteremo la tematica calata all'interno dell'ecosistema Arduino, valutando i progressi degli ultimi anni ed i limiti di questa tecnologia a basso costo. Introduzione …

Send this to a friend