AI:

Nella categoria Intelligenza Artificiale (AI in inglese che è l’acronimo di Artificial Intelligence) trovate numerosi articoli sull’argomento, per approfondire il machine learning e scoprire nelle sue varie applicazioni questo straordinario argomento.

Bias: il pregiudizio dell’Intelligenza Artificiale

Oggigiorno i sistemi basati sull'Intelligenza Artificiale sono ampiamente utilizzati per prendere decisioni che hanno un impatto di vasta portata sugli individui e sulla società. Le loro decisioni potrebbero interessare tutti, ovunque e in qualsiasi momento, comportando preoccupazioni su potenziali problemi legati ai diritti umani. Pertanto, è necessario andare oltre i tradizionali algoritmi di Intelligenza Artificiale per incorporare principi etici e legali nella loro progettazione e implementazione. In questo articolo ci occuperemo del problema del bias (pregiudizio), di come comprenderlo e affrontarlo. Introduzione Gran parte dell'IA, al giorno d'oggi , è alimentata da big data e potenti algoritmi di apprendimento …

GAN: che cos’è una rete generativa avversaria

Le reti generative avversarie (GAN) sono un'entusiasmante innovazione nell'ambito dell'apprendimento automatico. Le GAN sono modelli generativi, ovvero creano nuove istanze di dati che assomigliano ai dati di addestramento. Ad esempio, le GAN possono creare immagini che sembrano fotografie di volti umani, anche se i volti non appartengono a nessuna persona reale. Le GAN raggiungono questo livello di realismo accoppiando un generatore che impara a produrre l'output di destinazione, con un discriminatore che impara a distinguere i dati reali dall'output del generatore. In questo articolo vedremo come sono fatte le GAN e come possono essere impiegate. Introduzione Si definisce rete …

Intervistiamo ChatGPT: alla scoperta del nuovo chatbot

Negli ultimi tempi si sente parlare sempre più spesso di ChatGPT, un software di chatbot che sfrutta le potenzialità dell’intelligenza artificiale e del machine learning per interagire con gli umani. Definito come modello linguistico, questo chatbot è stato sviluppato e migliorato attraverso tecniche avanzate di machine learning. Seppur è stato rilasciato appena a novembre 2022, questo chatbot ha riscosso molto successo per il dettaglio delle risposte fornite a chi ha provato ad interagire con il chatbot. Andiamo a vedere le caratteristiche principali di questa novità dell’intelligenza artificiale e analizziamo il suo comportamento e le sue risposte durante una conversazione.

Robotica industriale per una fabbrica più intelligente

La robotica si sta sempre più integrando in tantissimi aspetti della società e tecnologici. Il miglioramento continuo degli algoritmi e i processori sempre più potenti consentono ai robot di ultima generazione di diventare sempre più efficienti e intelligenti nello svolgimento delle attività. Di conseguenza, molti lavori umani estenuanti, monotoni o addirittura pericolosi possono essere facilmente sostituiti da macchine robotiche. Analog Devices ha presentato all'evento globale Electronica 2022 sull'elettronica industriale a 360 gradi, tenutosi a Monaco di Baviera dal 15 al 18 Novembre 2022, una serie di soluzioni efficienti che semplificano la robotica industriale, dando un importante impulso alla crescita …

Edge Computing: l’apprendimento automatico ai confini della rete

I dispositivi IoT con risorse limitate, come i sensori e gli attuatori, sono diventati onnipresenti negli ultimi anni. Ciò ha portato alla generazione di grandi quantità di dati in tempo reale, un obiettivo interessante per i sistemi di Intelligenza Artificiale. Tuttavia, l'implementazione di modelli di apprendimento automatico su tali dispositivi finali è quasi impossibile. Una soluzione consiste nello scaricare i dati su sistemi informatici esterni (come i server cloud) per un'ulteriore elaborazione, ma questo peggiora la latenza, comporta un aumento dei costi di comunicazione e aumenta i problemi di privacy. Per risolvere questo problema, si è cercato di collocare …

ChatGPT: la rivoluzione nel mondo dei chatbot

ChatGPT sta per Chat Generative Pre-trained Transformer. Si tratta di un modello linguistico basato sull'Intelligenza Artificiale sviluppato da OpenAI, la stessa organizzazione di ricerca sull'Intelligenza Artificiale, che ha creato DALL-E e tante altre applicazioni. Nella sostanza, ChatGPT è un prototipo di chatbot basato sull'Intelligenza Artificiale e specializzato nella conversazione con un utente umano tramite testo scritto. In questo articolo andremo ad analizzare le caratteristiche di questo nuovo chatbot dalle immense potenzialità. Introduzione Il modello alla base di ChatGPT è stato addestrato su un'enorme quantità di dati di testo per generare risposte, agli input di testo in linguaggio naturale, simili …

Algoritmi di apprendimento automatico per il riconoscimento dei raggi gamma

Il follow-up degli allarmi scientifici esterni al progetto AGILE ricevuti dai rilevatori di Gamma-Ray Bursts (GRB) e di Onde Gravitazionali (GW), cioè la fase di controllo periodico e programmato di una ricerca scientifica tramite contributi esterni, è una delle attività principali del team del telescopio spaziale AGILE (Astrorilevatore Gamma ad Immagini LEggero). Il team AGILE ha sviluppato una pipeline automatica di analisi in tempo reale per analizzare i dati del rilevatore di immagini a raggi gamma per rilevare possibili controparti ottiche delle GW nell'intervallo di energia 0,1-10 GeV. Questo lavoro presenta un nuovo approccio per il rilevamento dei GRB …

Il Neuromorphic Computing è il futuro prossimo dell’IA

L’Intelligenza Artificiale è oggi considerata a tutti gli effetti la principale tecnologia computazionale alla base del progresso tecnologico. I paradigmi computazionali dell'IA, declinata nelle sue varie forme, vengono già ampiamente utilizzati per gestire e fornire servizi di ricerca di informazioni in rete, per il riconoscimento di immagini o vocale. Il tutto, mentre il mondo è letteralmente dominato dal potere dei dati. Anche l'IA sta subendo una fase di profonda trasformazione ed evoluzione verso nuovi modelli computazionali in grado di superare gli attuali limiti di impiego dei tradizionali paradigmi di calcolo, ancora troppo intensivi, anche se meno complessi da progettare. …

Connettori ibridi per l’ecosistema IoT e il Machine Learning

I connettori elettronici sono componenti fondamentali poiché supportano l'evoluzione in un'era molto dinamica basata sui dati e sui progressi tecnologici. Oggi come non mai è necessario osservare, misurare, archiviare, elaborare e trasmettere enormi quantità di dati. Nasce quindi l’esigenza di dare vita a una nuova generazione di connettori ibridi appositamente pensati per i sistemi IoT e Machine Learning. IoT e AI determinanti per il mercato dei connettori Sono molti i fattori chiave che guidano il cambiamento nel mercato globale dei connettori elettronici e dei cavi. Innanzitutto, la trasformazione digitale dell’Industry 4.0 che ha radicalmente rivoluzionato qualsiasi settore, i processi …

Apacer e ADLINK lanciano congiuntamente soluzioni robuste di Edge Computing che accelerano lo sviluppo diversificato delle applicazioni di Intelligenza Artificiale

L'espansione delle tecnologie 5G e AI, insieme agli scenari applicativi dell'edge computing sempre più diversi, hanno creato un'opportunità per la trasformazione di vari mercati verticali di applicazioni. In risposta alle sfide emergenti di storage ed elaborazione, Apacer e ADLINK, uno dei principali produttori di computer industriali, hanno collaborato su applicazioni di difesa e networking. Insieme, hanno integrato con successo la forza tecnica di Apacer nelle applicazioni di storage industriale con la ricca esperienza di ADLINK nello sviluppo di piattaforme di edge computing AI. Ora, propongono soluzioni ai dilemmi delle applicazioni emergenti, lanciano congiuntamente soluzioni di edge computing con elevata …

Intelligenza Artificiale: ultimi trend e prospettive di sviluppo

Negli ultimi anni l'Intelligenza Artificiale si è diffusa in diversi settori in seguito all'aumento di strumenti, applicazioni e piattaforme basate su AI e Machine Learning (ML). Queste nuove tecnologie hanno avuto un importante impatto in svariati contesti quali assistenza sanitaria, robotica, automazione e molte altre aree. Moltissime aziende stanno investendo nella ricerca sull'IA per scoprire nuove possibili applicazioni che permettano di avvicinare sempre più l'Intelligenza Artificiale agli esseri umani. Si prevede che entro il 2025 i soli ricavi dai software di Intelligenza Artificiale raggiungeranno oltre i 100 miliardi di dollari a livello globale come indicato nella figura seguente che …

DeepSloth: un nuovo tipo di attacco per le reti neurali

Le reti neurali profonde (DNN) hanno permesso scoperte in molti campi, come la classificazione delle immagini e il riconoscimento vocale. Nell'eseguire questi compiti, la struttura di una DNN assomiglia alla percezione umana: combinare rappresentazioni semplici, come i bordi, in rappresentazioni più complesse, come volti. Tuttavia, le persone possono imparare euristiche più semplici che permettono loro di eseguire anche compiti complessi, come guidare o suonare il pianoforte, con poco sforzo mentale. Quando euristiche più semplici sono adeguate per completare il compito, l'uso di rappresentazioni complesse porta al sovrapensiero. Il sovrapensiero umano è considerato uno spreco perché porta a un processo …

Texas Instruments presenterà all’embedded world processori innovativi per l’Edge AI con consumo energetico dimezzato

Texas Instruments presenta nuovi processori Sitara AM62 che contribuiscono ad espandere l'elaborazione con Intelligenza Artificiale (AI) per le applicazioni innovative di nuova generazione. Nello specifico, TI presenterà i nuovi processori AM62 dimostrando soluzioni per l’Edge AI e applicazioni HMI per la ricarica di veicoli elettrici, direttamente allo stand n. 215 nella hall 3A, in occasione dell'embedded world che si terrà a Norimberga, in Germania, il 21-23 giugno 2022. Introduzione Texas Instruments Incorporated è una società leader a livello mondiale nel settore dei semiconduttori, specializzata nella progettazione, produzione, test e vendita di chip di elaborazione analogici e integrati per mercati …

Avnet Silica presenta tecnologie AI/ML innovative all’Embedded World 2022

All'Embedded World Exhibition & Conference, Avnet Silica presenterà tecnologie AI/ML innovative e funzionalità di Intelligenza Artificiale all'avanguardia, in partnership con i principali produttori. Con un team di oltre 200 ingegneri applicativi e tecnici specializzati, Avnet Silica segue tutte le fasi di un progetto, dall’ideazione fino all’avvio della produzione. Avnet Silica è una business unit regionale di Avnet con headquarters europei in Belgio.  Introduzione Avnet Silica, divisione europea di Avnet specializzata in semiconduttori, nonché tra i principali distributori tecnologici a livello globale, sarà presente con un proprio spazio a Embedded World, la manifestazione leader per la community embedded, che avrà …

EBV Elektronik amplia il portafoglio di soluzioni IA con la tecnologia di Hailo

EBV Elektronik è una società Avnet fondata nel 1969. Ad oggi, EBV Elektronik è il principale specialista nella distribuzione europea di semiconduttori ed opera in 65 sedi dislocate in 29 paesi dell'area EMEA (Europa - Medio Oriente - Africa). EBV Elektronik ha annunciato la firma di un nuovo accordo di distribuzione per la regione EMEA con Hailo, produttore all'avanguardia di chip per Intelligenza Artificiale (AI). EBV Elektronik amplia il portafoglio di soluzioni per Intelligenza Artificiale con la tecnologia altamente innovativa di Hailo, che offre un'ampia gamma di acceleratori AI, tra cui l'innovativo processore AI Hailo-8™ e i moduli di …

La tecnologia Computing-in-Memory di Microchip

La tecnologia Computing-in-Memory di Microchip risolve le sfide dell'elaborazione vocale. La soluzione di memoria integrata SuperFlash memBrain di Microchip consente al System on Chip (SoC) di WITINMEN di soddisfare i più elevati requisiti di costo, bassa potenza e prestazioni di elaborazione neurale. Microchip progetta e distribuisce soluzioni innovative rivolte ai mercati industriale, automobilistico, consumer,  aerospaziale e della difesa, delle comunicazioni e dell'informatica. La tecnologia Computing-in-Memory è pronta ad eliminare i massicci colli di bottiglia delle comunicazioni dati solitamente associati all'esecuzione dell'elaborazione vocale nelle applicazioni di Intelligenza Artificiale (AI), ma richiede una soluzione di memoria incorporata che esegua simultaneamente il …

Firmware 2.0 #21: AI/ML – Big Data Analytics

Oggi esce il nuovo numero della rivista di elettronica Firmware 2.0 dove troverete numerosi contenuti esclusivi per Makers e Professionisti, progetti, tutorial a puntate, articoli tecnici sui Big Data e sulla tecnologia dell'Intelligenza Artificiale, implementati in applicazioni con microcontrollori. Ecco alcuni contenuti che potrete leggere in Firmware 2.0 #21: TinyML: l’apprendimento automatico su microcontrollore, Streaming di temperatura e umidità con l’ecosistema Big Data, Intelligenza Artificiale con Arduino, Rilevamento delle intrusioni su rete CAN-bus con TinyML, e molti altri articoli e progetti.  Editoriale Intelligenza Artificiale: alla ricerca di nuove skills Cari lettori, il nuovo numero di Firmware 2.0 è dedicato …

L’Apprendimento Automatico applicato all’Astronomia

La metodologia data-driven ha attirato molta attenzione recentemente nella comunità fisica. Questo non è sorprendente poiché uno degli obiettivi fondamentali della fisica è quello di dedurre o scoprire le leggi della fisica dai dati osservativi. Il rapido sviluppo della tecnologia dell'Intelligenza Artificiale fa sorgere la domanda se queste scoperte possano essere eseguite algoritmicamente dai computer. In questo articolo parleremo del fisico Hong Qin, programmatore di un algoritmo di apprendimento che, da un insieme di dati osservativi su un reticolo spaziale, usa la teoria di campo appresa da una AI per prevedere nuove osservazioni. L'approccio di apprendimento delle teorie di …

Come utilizzare Hadoop e perché è fondamentale per i Big Data

Mentre grandi quantità di dati non strutturati rappresentano una sfida costante per le infrastrutture IT, ci sono tecnologie che permettono di gestire e rendere utile e visibile un numero sempre più crescente di informazioni. In questo articolo parliamo dell'ecosistema di una di queste tecnologie, Apache Hadoop e ne analizzeremo i vantaggi, le caratteristiche ed i limiti fino ad arrivare alle più recenti implementazioni. Introduzione Ogni giorno assistiamo ad un costante aumento di dati provenienti da più fonti, strumenti o sistemi: i Big Data. Allo stesso tempo, la loro origine è sempre più complessa: aumentano i dati non strutturati e …

Sono ora disponibili le schede industriali BiCS5 3D TLC con 112 layer di Apacer ottimizzate per Smart IoT e Riconoscimento Facciale AI

Secondo una ricerca di Mordor Intelligence, il mercato del riconoscimento facciale è stato valutato a 3,72 miliardi di dollari nel 2020 e si prevede che sarà valutato a 11,62 miliardi di dollari entro il 2026, registrando un CAGR di circa il 21,71% nel periodo di previsione. La tecnologia di riconoscimento facciale sta finalmente prendendo piede. È andata ben oltre l'utilizzo degli agenti di polizia in cerca di un sospettato su una telecamera di sorveglianza. Ora, la tecnologia smart del riconoscimento facciale basato sull'Intelligenza Artificiale è comune nelle applicazioni smart retail, finanza, trasporti e persino nell'assistenza sanitaria. Ma, con il …

Send this to a friend