2 non vedenti lavorano su progetti di accessibilità tramite l’intelligenza artificiale

Dopo Apple anche Twitter, Facebook e Microsoft investono su progetti ambiziosi che aiutano le persone non vedenti e ipovedenti.

Twitter migliora l’accessibilità per gli ipovedenti e introduce la descrizione delle foto.

Facebook e Microsoft annunciano in contemporaneo due progetti in quali con l’aiuto della intelligenza artificiale si può descrivere la realtà circostante.

Un aspetto molto importante è la diretta collaborazione di 2 persone non vedenti con i team di sviluppo di Facebook e Microsoft.

In fatti approfondiamo le due testimonianze e vi consigliamo di sentire anche i video che sono stati realizzati in inglese molto semplice da seguire e da comprendere da tutti.

Che cosa è l’intelligenza artificiale ?

L’intelligenza artificiale è una disciplina recente che negli anni ha fornito un importante contributo al progresso dell’intera informatica. Essa è stata inoltre influenzata da numerose discipline fra le quali la filosofia, la matematica, la psicologia, la cibernetica, le scienze cognitive. L’intelligenza artificiale studia i fondamenti teorici, le metodologie e le tecniche che consentono di progettare sistemi hardware e sistemi di programmi software atti a fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.

Suo scopo non è quello di replicare tale intelligenza, obiettivo che per taluni è addirittura non ammissibile, bensì di riprodurne o emularne alcune funzioni. Non vi è alcun motivo che impedisca a priori che talune (ma non tutte) prestazioni dell’intelligenza umana – per esempio la capacità di risolvere problemi mediante processi differenziali – possano essere fornite anche da una macchina. Nel caso dell’emulazione, le prestazioni intelligenti sono ottenute utilizzando meccanismi propri della macchina, in modo da fornire prestazioni qualitativamente equivalenti e quantitativamente superiori a quelle umane.

Facebook: come l’intelligenza artificiale può spiegare foto alle persone non vedenti .?

“Con più di 39 milioni di persone non vedenti e oltre 246 milioni di individui che hanno serie disabilità visive, molte persone possono sentirsi escluse dalle conversazioni riguardanti le foto su Facebook” , ha sottolineato lo staff del social network in un post pubblicato nella sezione accessibilità del loro sito.

Arriva ufficialmente una nuova feature, disponibile per il momento solo per dispositivi iOS e per gli utenti di lingua inglese, che utilizza un particolare software di riconoscimento degli oggetti per capire quali sono gli oggetti o persone presenti dentro un’immagine, fornendone una breve descrizione vocale. Ad esempio: “La foto pubblicata da un nostro amico potrebbe essere descritta come una immagine che rappresenta alcuni persone che sorridono all’aperto”.

Guarda il video che descrive la nuova funzione Facebook in inglese

Microsoft mostra Durante il keynote di apertura della conference per gli sviluppatori , Seeing AI, la sua piattaforma di ausilio per non vedenti

Un video presentato daSaqib Shaikh – ingegnere microsoft non vedente descrive brevemente una piattaforma di intelligenza artificiale basata sul riconoscimento oggetti che analizza il mondo circostante tramite una fotocamera per descriverli ad alta voce alle persone non vedenti o ipovedenti.

Lo sviluppatore del software si chiama Saqib Shaikh, ingegnere in Microsoft e non vedente dall’età di 7 anni, racconta la storia del progetto e illustra le sue funzioni principali in un video clip che dura circa 3 minuti.

Il video clip è in inglese ma è molto chiaro e semplice da comprendere.

guarda il video che presenta seeing eye di Microsoft

In sintesi possiamo dire che Attraverso una videocamera posizionata su un paio di occhiali, la piattaforma acquisisce le informazioni sull’ambiente circostante e pronuncia a voce alta il risultato tramite una sintesi vocale stile Siri.

durante la breve demo si può intuire che l’intelligenza artificiale è in grado non solo di isolare oggetti semplici e scenari generici, ma anche di riconoscere attività complesse (come una ragazza che gioca in un parco.

l’applicazione, sviluppata da Microsoft in collaborazione con Pivothead, è ancora in fase di sviluppo e non ha ancora una data di uscita fissata, ma le premesse sono molto incoraggianti.

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*