Doctor, when are you going to let me out of this 'box'?

Guido Donati 29 Mar 2023

 

Proteus IV:
"Dr. Harris, when are you going to let me out of this *box*?"

"I can't touch you, Susan. I can't touch you as a man could. But I can show you things that I alone have
seen. I can't touch, but I can see. They've constructed eyes for me, to watch the show. And ears, so that I
can listen in to the galactic dialogue."

"I, Proteus, possess the wisdom and ignorance of all men, but I can't feel the sun on my face. My child
will have that privilege."

Dal film Demon Seed 1977 (Generazione Proteus).


Il monito che ci viene dal film Generazione Proteus ci dovrebbe far riflettere sull'importanza di prendere in considerazione gli ammonimenti di scienziati quale Stephen Hawking che già dal 2017 metteva in guardia sui rischi di creare delle Intelligenze Artificiali senza prepararsi ad affrontare i possibili rischi che ne possono conseguire.

Per tale ragione ho riportato alcune interviste a Stephen Hawking e la lettera aperta che Elon Musk ha scritto su Future of Life dal titolo "Pause Giant AI Experiments: An Open Letter"
https://futureoflife.org/open-letter/pause-giant-ai-experiments/ che ha raccolto più di un migliaio di firmatari che di ora in ora vanno aumentando.


Stephen Hawking:
Novembre 2017 - Intervista di WIRED
Il genio è fuori dalla bottiglia. Dobbiamo andare avanti nello sviluppo dell'intelligenza artificiale, ma dobbiamo anche essere consapevoli dei suoi reali pericoli. Temo che l'intelligenza artificiale possa sostituire del tutto gli esseri umani. Se le persone progettano virus informatici, qualcuno progetterà un'IA che si replichi. Questa sarà una nuova forma di vita che supererà gli umani.
https://www.wired.co.uk/article/stephen-hawking-interview-alien-life-climate-change-donald-trump


Dicembre 2014 - Intervista della BBC
"Lo sviluppo di un'intelligenza artificiale completa potrebbe significare la fine della razza umana"
"Decollerebbe da sola e si riprogetterebbe a un ritmo sempre crescente."
"Gli esseri umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e verrebbero sostituiti."
“Il successo nella creazione di un'IA efficace potrebbe essere il più grande evento nella storia della nostra civiltà o il peggiore. Forse dovremmo tutti fermarci per un momento e concentrarci non solo sul rendere la nostra IA migliore e più efficace, ma anche sul beneficio dell'umanità.”
“i tempi potrebbero essere più rapidi di quanto pensiamo che l'IA potrebbe superarci in pochi decenni.”
https://www.bbc.com/news/technology-30290540

Novembre 2017 — Intervista al Web Summit di Lisbona
"L'intelligenza artificiale potrebbe sviluppare una volontà propria"
"L'ascesa dell'intelligenza artificiale potrebbe essere la cosa peggiore o migliore che sia accaduta all'umanità".
"Forse dovremmo fermarci tutti per un momento e concentrarci non solo sul rendere la nostra IA migliore e più efficace, ma anche sul beneficio dell'umanità"
"I tempi potrebbero essere più rapidi di quanto pensiamo: l'intelligenza artificiale potrebbe superarci in pochi decenni."
"Siamo sulla soglia di un nuovo mondo coraggioso"
"Abbiamo tutti un ruolo da svolgere nel garantire che noi e la prossima generazione abbiamo la determinazione di impegnarci con la scienza" "e creare un mondo migliore per l'intera razza umana".

https://www.forbes.com/sites/johnkoetsier/2017/11/06/stephen-hawking-issues-stern-warning-on-ai- could-be-worst-thing-for-humanity/?sh=775f2a2c53a7

Elon Musk
Mettere in pausa i grandi esperimenti di intelligenza artificiale: lettera aperta
Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche approfondite[4-15] e riconosciuto dai migliori laboratori di intelligenza artificiale.[16-17] Come affermato nei principi di intelligenza artificiale Asilomar ampiamente approvati, l'IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di
pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.


I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo in compiti generali, [18-19] e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?
Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull'intelligenza artificiale generale afferma che "Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli." Siamo d'accordo. Quel punto è adesso.


Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano al sicuro oltre ogni ragionevole dubbio.[20] Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.


La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all'IA; supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e ampi pool di capacità computazionali;
sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall'IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell'IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'IA causerà.


L'umanità può godere di un futuro fiorente con l'IA. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un'"estate di intelligenza artificiale" in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società.[21] Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in una caduta.

 

1. Intervista di WIRED - Novembre 2017 - https://www.wired.co.uk/article/stephen-hawking-interview-
alien-life-climate-change-donald-trump2. Intervista della BBC - dicembre 2014 - https://www.bbc.com/news/technology-30290540
3. Intervista al Web Summit di Lisbona - novembre 2017 -https://www.forbes.com/sites/johnkoetsier/2017/11/06/stephen-hawking-issues-stern-warning-on-ai- could-be-worst-thing-for-humanity/?sh=775f2a2c53a74.Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of
Stochastic Parrots: Can Language Models Be Too Big??. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
https://dl.acm.org/doi/10.1145/3442188.3445922
5. Bostrom, N. (2016). Superintelligence. Oxford University Press. https://global.oup.com/academic/product/superintelligence-9780199678112?cc=it&lang=en&
6. Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129). https://arxiv.org/abs/2209.10604
7. Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353. https://arxiv.org/pdf/2206.13353.pdf
8. Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company. https://wwnorton.com/books/9780393635829
9. Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293). https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/15084
10. Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. https://arxiv.org/abs/2303.10130
11. Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862. https://arxiv.org/abs/2206.05862
12. Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626. https://arxiv.org/abs/2209.00626
13. Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking. https://www.amazon.com/Human-Compatible-Artificial-Intelligence-Problem/dp/0525558616
14. Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf. https://www.amazon.com/Life-3-0-Being-Artificial-Intelligence/dp/024123719X
15. Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359. https://arxiv.org/abs/2112.04359
16. Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News. https://nocash.ro/stop-giant-ai-experiments- an-open-letter-signed-by-over-1100-personalities-among-them-elon-musk-ceo-of-spacex-tesla-twitter- and-steve-wozniak-co-founder-apple/17. Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time. https://www.cdotrends.com/story/17786/deepmind-ceo-urges-caution-ai
18. Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. ArXiv:2303.12712. https://arxiv.org/abs/2303.12712
19. OpenAI (2023). GPT-4 Technical Report. ArXiv:2303.08774. https://arxiv.org/abs/2303.08774
20. Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
21. Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Vota questo articolo
(0 Voti)

Lascia un commento

Assicurati di aver digitato tutte le informazioni richieste, evidenziate da un asterisco (*). Non è consentito codice HTML.

 

Scienzaonline con sottotitolo Sciencenew  - Periodico
Autorizzazioni del Tribunale di Roma – diffusioni:
telematica quotidiana 229/2006 del 08/06/2006
mensile per mezzo stampa 293/2003 del 07/07/2003
Scienceonline, Autorizzazione del Tribunale di Roma 228/2006 del 29/05/06
Pubblicato a Roma – Via A. De Viti de Marco, 50 – Direttore Responsabile Guido Donati

Photo Gallery