L’intelligenza artificiale dirigerà il nostro destino?

“Visualizzo un momento in cui saremo per i robot ciò che sono i cani per gli umani e io faccio il tifo per le macchine.” -Claude Shannon

“Il padre della teoria dell’informazione” ha segnalato il potere dell’intelligenza artificiale decenni fa e lo stiamo assistendo ora. Non ne siamo consapevoli, ma la maggior parte dei nostri compiti quotidiani sono influenzati dall’intelligenza artificiale come le transazioni con carta di credito, l’utilizzo del GPS nei nostri veicoli, l’assistenza personale da varie app nei nostri smartphone o l’assistenza clienti online da chatbot e chi può ignorare le auto intelligenti di Google che sono molto vicini alla realtà. Ma siamo sicuri che in futuro gli sviluppi nell’intelligenza artificiale non saranno il più grande pericolo per noi.

Oggi, questa complessa programmazione che è IA debole sta replicando l’intelligenza degli esseri umani e sta sovraperformando gli esseri umani in compiti specifici. In futuro, con l’evoluzione dell’IA forte, quasi ogni compito degli umani sarà sovraperformato dall’intelligenza artificiale. Il lavoro e il lavoro che definiscono la nostra identità e stile di vita saranno passati ai robot. Non c’è dubbio che l’intelligenza artificiale abbia la potenzialità di essere più intelligente di noi, ma non possiamo prevedere come si comporterà nei prossimi tempi.

Al momento nessuno in questo mondo sa se l’Intelligenza Artificiale Forte sarà benefica o dannosa per l’umanità. C’è un gruppo di esperti che crede che l’intelligenza artificiale forte o la superintelligenza ci aiuteranno a sradicare guerre, malattie e povertà. D’altra parte, alcuni esperti ritengono che possa essere usato criminalmente per sviluppare armi autonome per uccidere gli umani. Sono anche preoccupati per l’IA, che da sola può sviluppare alcuni metodi distruttivi per raggiungere gli obiettivi.

Alcune persone suggeriscono che l’Intelligenza Artificiale può essere gestita come le armi nucleari, ma questo confronto di per sé non è saggio. Le armi nucleari richiedono materie prime raramente trovate come l’uranio e il plutonio, mentre l’intelligenza artificiale è fondamentalmente un software. Quando i computer saranno abbastanza potenti, chiunque conosca la procedura per scrivere il codice pertinente potrebbe creare Intelligenza Artificiale ovunque.

Le persone più importanti del mondo tecnologico come Bill Gates, Elon Musk e il grande scienziato Stephen Hawkins hanno già espresso preoccupazioni sulla futura trasformazione dell’Intelligenza Artificiale. Non hanno torto nel considerare l’IA come la più grande minaccia esistenziale perché siamo già dipendenti da sistemi intelligenti e in futuro questa dipendenza non farà che aumentare.

Ciò che potremmo affrontare nel tempo a venire potrebbe essere la nostra stessa evoluzione. Controlliamo il mondo perché siamo i più intelligenti. Quando non saremo i più intelligenti, potremmo mantenere il controllo? Una soluzione oggi visibile è la ricerca e la preparazione per eventuali potenziali esiti negativi. Questo ci aiuterà ad evitare qualsiasi insidia e ad apprezzare i benefici dell’IA.

[Ad_2]

Source by Gaurav Chaudhary