L'IA non è ancora pronta per sostituire gli sviluppatori, non del tutto almeno

L'IA non è ancora pronta per sostituire gli sviluppatori, non del tutto almeno

Una ricerca di Microsoft evidenzia come gli agenti di intelligenza artificiale, nonostante i progressi significativi nel campo dello sviluppo software, presentino ancora notevoli difficoltà nell'eseguire attività di debugging in modo autonomo ed efficace.

di pubblicata il , alle 11:31 nel canale Web
Microsoft
 

Gli strumenti di intelligenza artificiale hanno trasformato numerosi aspetti dello sviluppo software, dall'assistenza nella scrittura del codice alla generazione automatica di applicazioni. Tuttavia, quando si tratta di identificare e correggere errori nel codice, le capacità dell'IA mostrano limiti sostanziali che ne impediscono l'autonomia completa.

Microsoft Research ha recentemente affrontato questa problematica sviluppando "debug-gym", un ambiente sperimentale progettato specificamente per testare e potenziare le capacità di debugging dei modelli di intelligenza artificiale. L'ambiente, disponibile su GitHub e descritto dettagliatamente in un post pubblicato sul blog ufficiale di Microsoft Research, rappresenta un tentativo di fornire ai modelli di IA gli strumenti necessari per affrontare compiti di debugging su repository di codice esistenti.

Debug-gym: un laboratorio per l'IA che corregge codice

La particolarità di questo approccio consiste nell'espandere lo spazio di azione e osservazione degli agenti di IA, consentendo loro di utilizzare strumenti tipicamente impiegati dagli sviluppatori umani. I risultati ottenuti dai ricercatori mostrano un quadro interessante: gli agenti dotati di strumenti di debugging hanno ottenuto prestazioni nettamente superiori rispetto a quelli che ne erano privi, quasi raddoppiando le percentuali di successo. Tuttavia, anche nelle condizioni migliori, il tasso di successo si è fermato al 48,4% - un valore insufficiente per applicazioni professionali.

Le cause di queste limitazioni sembrano risiedere principalmente in due fattori: una comprensione incompleta dell'utilizzo ottimale degli strumenti di debugging e la scarsità di dati rappresentativi del comportamento decisionale sequenziale nelle attuali basi di addestramento dei modelli linguistici di grandi dimensioni (LLM). I ricercatori di Microsoft considerano comunque questi risultati preliminari come un punto di partenza promettente. Le prossime fasi della ricerca prevedono lo sviluppo di un modello specializzato nella raccolta delle informazioni necessarie per risolvere i bug, potenzialmente affiancato da un modello più piccolo che possa fornire informazioni rilevanti a quello principale, ottimizzando così i costi di inferenza.

Gli esiti di questa ricerca si allineano con altri studi recenti che hanno evidenziato i limiti dell'IA nella creazione di codice affidabile. Sebbene gli strumenti di intelligenza artificiale possano talvolta generare applicazioni funzionali per compiti specifici (come ad esempio con AI Site Builder di WordPress), il codice prodotto tende a contenere numerosi bug e vulnerabilità di sicurezza, con una capacità limitata di identificare e risolvere autonomamente tali problemi. L'opinione più diffusa fra gli esperti è che lo scenario più realistico per il futuro prossimo non sia la sostituzione completa degli sviluppatori umani, ma piuttosto la creazione di agenti di IA che possano affiancarli, automatizzando compiti ripetitivi e riducendo significativamente i tempi di sviluppo.

Una visione che aveva già descritto il CEO di Google Sundar Pichai alla fine dello scorso anno: insomma, l'AI sembra essere destinata ad aiutare gli umani, e non a sostituirli del tutto. Almeno per il prossimo futuro.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
MikTaeTrioR14 Aprile 2025, 12:10 #1
sono fenomenali per scrivere bozze di codice, per aiutare a capire come risolvere un problema, per scrivere piccole funzioni spiegate in modo molto preciso...

sono strumenti molto utili...non sono irrinunciabili ma velocizzano parecchio alcune cose, quelle piu stupide di solito...

arriveremo al giorno in cui non servirà piu capire quello che scrivono?...sinceramente penso che, a meno che non avvenga un ulteriore rivoluzione della stessa portata di arrivo LLM, sia molto molto difficile...
omerook14 Aprile 2025, 12:12 #2
Ottima notizia! non verranno cacciati tutti via da domani ma solo la metà! gli altri dopodomani.
lollo914 Aprile 2025, 13:16 #3
Il problema personalmente lo vedo più riguardo alla crescita professionale di chi sta entrando ora.
3/4 del codice che mi propongono i più junior viene palesemente da ChatGPT ed affini, diretto senza manco averlo pulito, e per quanto mi riguarda, quando rispetta gli standard che ci siamo dati, se è ok (quasi mai) la revisione la passa.

Ma quando vedi persone che dopo qualche anno ancora le devi tenere per mano, il problema si crea comunque. Dopo 5-6 anni di carriera non puoi costare ancora ore ed ore di review ai colleghi perché il grosso di quello che sai fare è scrivere prompt più che programmare. Poi per carità, va bene farlo, oggi conta pure quello, ma se lo fai a cervello spento rischi di diventare tu il problema, non l’AI.
Di questi qua, presto o tardi gli agenti AI ne rimpiazzeranno tanti se non si danno una sveglia.
Per gli altri, difficile dirlo, siamo ancora lontani.
Hiei360014 Aprile 2025, 13:27 #4
Lo sanno tutti che la IA non è ancora a quel livello, ma è solo questione di tempo
LMCH14 Aprile 2025, 13:44 #5
Originariamente inviato da: lollo9
Il problema personalmente lo vedo più riguardo alla crescita professionale di chi sta entrando ora.
3/4 del codice che mi propongono i più junior viene palesemente da ChatGPT ed affini, diretto senza manco averlo pulito, e per quanto mi riguarda, quando rispetta gli standard che ci siamo dati, se è ok (quasi mai) la revisione la passa.

Ma quando vedi persone che dopo qualche anno ancora le devi tenere per mano, il problema si crea comunque. Dopo 5-6 anni di carriera non puoi costare ancora ore ed ore di review ai colleghi perché il grosso di quello che sai fare è scrivere prompt più che programmare. Poi per carità, va bene farlo, oggi conta pure quello, ma se lo fai a cervello spento rischi di diventare tu il problema, non l’AI.
Di questi qua, presto o tardi gli agenti AI ne rimpiazzeranno tanti se non si danno una sveglia.
Per gli altri, difficile dirlo, siamo ancora lontani.


Sono completamente d'accordo.
L'effetto principale delle AI di "supporto alla programmazione" è che da un lato lobotomizzano in modo irreparabile un numero non più trascurabile di junior e dall'altro *peggiorano* la qualità del codice prodotto con esse causando ulteriori danni a medio e lungo termine.
MikTaeTrioR14 Aprile 2025, 13:53 #6
Originariamente inviato da: Hiei3600
Lo sanno tutti che la IA non è ancora a quel livello, ma è solo questione di tempo


potrebbe anche essere solo quello che vogliono farci credere...potrebbero esserci dei limiti gia raggiunti o quasi..

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^