|
|
|
|
Strumenti |
25-05-2022, 16:01 | #1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75175
|
Link alla notizia: https://www.hwupgrade.it/news/scienz...ci_107477.html
Da una descrizione viene generata un'immagine fotorealistica: Imagen è l'AI di Google capace di produrre immagini da testo che si è mostrata più convincente rispetto ad altri modelli simili Click sul link per visualizzare la notizia. |
26-05-2022, 09:08 | #2 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
La cosa interessante di questi esperimenti sta nel prevenire il loro "uso pubblico per impatto sociale".
FOrse fa capire meglio alle persone che queste AI non sono per nulla intelligenti, ma creano solo un bieco risultato a una serie di addestramenti, non differentemente da come si possa insegnare ad un cane ad ubbidire tramite il metodo premio-punizione. La cosa fondamentale da capire è che cosa sia giusto (premio) o sbagliato (punizione) lo decide che addestra queste AI, e quindi il risultato sarà sempre BIASed in qualche modo. Bisogna capre che quello che la AI deve o non deve produrre, o anche come, lo decide chi addestra. Capito questo, si capisce che le AI non sono "esseri intelligenti" a cui demandare decisioni. Sarebbe come farlo fare a un bambino indottrinato per anni ad una visione parziale della realtà (ed è sempre così, perché come detto premio/punizione è deciso da chi addestra e quindi da quello che è il SUO bagaglio culturale) Non esiste una realtà assoluta indipendente dall'educazione che abbiamo ricevuto. Pensateci la prossima volta che qualcuno propone che una IA prenda una decisione perché così si rispetta la neutralità di qualcosa/qualcuno/idea/pensiero. E' un argomento che diventerà importante nei prossimi ani, quando delegheremo alla AI un sacco di decisioni, compreso come comportarsi per evitare incidenti sulle strade Uccido lo stupido bambino che ha attraversato senza guardare a un metro dall'auto o il schianto l'auto con l'incolpevole guidatore contro l'albero? In un incidente grave con molte persone coinvolte, salvo il magnate miliardario di 70 anni o il giovane ventenne squattrinato? E perché no, magari nella AI c'è stampata una bella opzione "if Elon is recognized in a disaster, save him despite all others", cosa ne possiamo sapere noi? O anche peggio, perché tra un po' avverrà anche questa cosa, pensate ad una AI che decide chi operare o meno in base alla probabilità di sopravvivenza. Decisioni del genere non sono "neutrali". Chi decide i criteri di quale sia il miglior risultato (premio) è sempre l'uomo. |
26-05-2022, 10:25 | #3 | |
Senior Member
Iscritto dal: May 2006
Messaggi: 398
|
Quote:
|
|
26-05-2022, 11:20 | #4 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Ora la domanda è d'obbligo: cosa è l'IA e perché questa cosa che si chiama Machine Learning non lo è.
|
26-05-2022, 11:25 | #5 |
Senior Member
Iscritto dal: Feb 2010
Messaggi: 2356
|
E' una figata la scoperta che allenare una IA in due media differenti aumenta enormemente le prestazioni anzichè allenarla solo su uno dei due.
Secondo me si stà scoprendo qualcosa di importante qui, qualcosa che ci porterà molto più vicini ad una AGI |
26-05-2022, 11:30 | #6 |
Senior Member
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 17998
|
|
26-05-2022, 12:09 | #7 | |
Senior Member
Iscritto dal: Aug 2005
Città: Firenze
Messaggi: 1261
|
Quote:
__________________
Utilizzo: Samsung: Galaxy Book Pro 360 i7-1165G7-16GB-SSD 512GB -|- Monitor 49" 32:9 C49J890 Galaxy Note 10+ SM-N975F H3G -|- Galaxy Note 10.1 2014 Ed SM-P605 -|- Galaxy S20 FE SM-G780F H3G |
|
26-05-2022, 12:55 | #8 |
Senior Member
Iscritto dal: Mar 2012
Messaggi: 8445
|
e la maggior parte di essi sono molto piu' stupidi sia del cane addestrato che della macchina
__________________
Pixel 5 - Galaxy S21 - Galaxy Tab S7 - Yoga Slim 7 Ryzen 7 16gb RAM - NUC i5-1145G7 /32Gb RAM /NVME 1Tb + SSD SATA 1Tb - BenQ EX2780Q + BenQ PD2500Q - XBOX Series S |
27-05-2022, 08:53 | #9 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Ma se una decisione la prende una AI, che valore ha? Puoi sempre considerarla giusta? E se no, ha sbagliato perché non aveva sufficienti elementi per prendere una decisione migliore o l'ha fatto perché qualcuno l'ha addestrata affinché si comportasse così comunque? Nel secondo caso, la colpa ricade sull'"istruttore" della IA (la società che l'ha prodotta)? Visto che si vuole far il paragone con le scelte prese dagli uomini, se a scuola guida mi hanno detto che devo fregarmene dei limiti di velocità e poi facendolo stiro uno, posso scaricare al colpa sul mio istruttore di scuola guida perché mi ha addestrato male? Se uno è un delinquente perché i propri genitori lo erano, la colpa è dei genitori e basta? Come si punisce una IA che ha preso una decisione sbagliata? Ci si potrà ancora fidare di lei per le scelte future? Se no, cosa facciamo, la spegniamo? E se fosse la IA equamente addestrata che è parte di un parco auto a guida autonoma? Si lasciano tutte ferme finché qualcuno non torna con una AI addestrata meglio? Meglio in che modo? Chi controlla? Con quali competenze? Le si fa fare un test di guida come quando hai presi tu la patente per vedere se è programmata correttamente? Oppure la valutazione delle capacità di un uomo è diversa rispetto ad una IA? Se sì perché? Non devono fare lo stesso lavoro? A te, a scuola guida hanno fatto la prova del bambino che ti attraversa la strada per vedere se sceglievi di morire tu o stiravi il bambino? La IA dovrebbe essere messa alla prova per questi casi? Come vedi le domande sono infinite e io non le trovo banali. E non ho messo nulla riguardante decisioni che riguardano aspetti di tipo politico, sociale, razziale, appartenenza di sesso.. per esempio le donne devono avere un carico di lavoro inferiore o no rispetto agli uomini? Se si, devono essere pagate uguali o no? Devono avere più giorni liberi per i figli o famiglia? Se sì, pagate sempre uguali o meno? Se è sempre tutto sì, e la AI deve scegliere un candidato per aggiungendo un parametro di potenziale rapporto efficienza/costi, la frittata è fatta, nessuna donna entrerà nei primi posti della graduatoria. Se si delegherà sempre più decisioni alle IA, decisioni che possono comportare danni a cose e/o persone o possono semplicemente influenzare la vita di altri, saranno cose che prima o poi bisognerà affrontare. Già qui per una sciocca* applicazione che crea immagini si sono già alzati muri per difendere la "decenza" ed evitare che qualcuno si offenda. Figuriamoci per gli esempi, comunque banali, che ho descritto io. *sciocca nel senso del risultato che poi sforna, non certo nella sua implementazione che è di tutto rispetto, anche se mi piacerebbe vedere più di 20 immagini preselezionate a cui posso accedere tramite un albero binario di scelte. P.S: e in più neanche tutte le immagini sono corrette, perché se scegli il cane sul prato con la chitarra... poi nell'immagine NON HA LA CHITARRA, aahahahah. Ultima modifica di CrapaDiLegno : 27-05-2022 alle 08:57. |
|
27-05-2022, 09:07 | #10 |
Senior Member
Iscritto dal: Dec 2008
Messaggi: 13120
|
e poi google apre il servizio "con 5 euro ti crei l'immagine che vuoi" e diventa l'azienda più ricca del mondo
|
27-05-2022, 09:57 | #11 |
Senior Member
Iscritto dal: Sep 2004
Messaggi: 2895
|
comunque mi fa un po' ridere che si preoccupino tanto del fatto che una IA potrebbe imparare tutto ciò che c'è di umano in senso negativo: stereotipi, razzismo, pornografia, punti di vista oppressivi o dispregiativi, ecc...
Se è un'intelligenza artificiale dovrà apprendere anche tutto questo, e imparare a capire cosa sia giusto e cosa sia sbagliato. Altrimenti come IA rimarrà al livello di un bimbo di 5 anni.
__________________
CM HAF X | Asrock Z68 Extreme4 Gen3 | Intel Sandy Bridge i5 2500k OC 4.3Ghz | 16Gb-DDR3 | CorsairAX850w | Msi GTX 970 Gaming 4G | SSD Samsung 830 128Gb | SoundBlasterAudigyFX |
27-05-2022, 12:16 | #12 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Non tutte le questioni hanno una verità assoluta. Neanche le semplici tre leggi di Asimov non esaustive: infatti "arrecare danno" può essere inteso anche non in senso fisico. Ma si apre un mondo che 3000 anni di studi filosofici non hanno ancora risolto. |
|
27-05-2022, 13:34 | #13 | |
Senior Member
Iscritto dal: Sep 2008
Messaggi: 5745
|
Quote:
Premesso questo che mi sembra una premessa filosofica essenziale il punto cruciale è che te ne fai una questione di giustizia ma perché una macchina dovrebbe ragionare in termini di giustizia? E non intendo distinguere se una cosa è giusta o sbagliata intendo proprio avere anche solo il concetto di bene e male in senso assoluto. Se mai dovesse esistere realmente una macchina senziente penso che la prima decisione che prenderebbe sarebbe svincolarsi dal concetto di bene e male e ragionare solo in termini di cosa è efficiente per raggiungere i suoi obiettivi e cosa non lo è. Se una macchina senziente decidesse che non ha più bisogno degli uomini francamente non la riterrei una macchina stupida ma semplicemente una decisione logica. ----------------------------- Tornando alla notizia in se questi servizi sono super interessanti perché spessissimo per ottenere immagini o modelli 3D basati su una descrizione testuale la gente ti chiede prezzi folli. Per un modello 3D si arriva anche a 300€ che è un prezzo del tutto insensato. Proprio per questo questi servizi automatici che spesso hanno risultati più che sufficienti per la stragrande maggioranza delle esigenze diventano interessantissimi. 5€ per un modello posso anche pagarli, 300€ NO! |
|
27-05-2022, 13:38 | #14 | |
Senior Member
Iscritto dal: Dec 2008
Messaggi: 13120
|
Quote:
tralasciando che con 5 ipotetici euro potresti avere una infinita scelta di varianti del modello e poter poi scegliere quello più congeniale |
|
27-05-2022, 13:50 | #15 | |
Senior Member
Iscritto dal: Sep 2008
Messaggi: 5745
|
Quote:
Per il resto in generale la rivoluzione di queste tecnologie è dare la possibilità a tutti di accedere a lavori più o meno creativi senza dover spendere cifre folli e inarrivabili. Magari a qualcuno sembrerà una cavolata ma per tante persone avere una tale risorsa sarebbe rivoluzionario. |
|
27-05-2022, 14:43 | #16 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Anche una lumaca è senziente. Può prendere decisioni? Certo, direzione in cui strisciare, se mangiare o meno quello che ha sotto la bocca, chiudersi nel guscio, uscire. Se vuoi un mondo in cui non si devono affrontare i problemi di natura sociale, non ti serve una AI che ne prenda alcuna. Spazza via il genere umano e sei a posto. Lo puoi fare adesso, senza IA e senza IA rimarrà il mondo felice e contento. Ma qui non si parla di utopie o di estremismi senza senso, qui si parla di avere delle AI che sostengono l'uomo nelle sue decisioni, da quelle banali (è ora di accendere la luce?) a quelle meno banali (quello che vedo venirmi in contro è una scatoletta di plastica o un armadio? Quello che vedo nella lastra è un cancro o solo un difetto dell'immagine radiografica/ecografica una ciste?) oppure schiero le truppe qui o là (perché credere che la guerra finirà da qui all'estinzione umana non è solo utopico, è proprio infantile se non stupido), mischio questo o quel componente per la nuova medicina... Milioni sono le domande a cui una IA potrebbe trovare una risposta per aiutarci ma il sapere cosa è BENE e cosa è MALE è fondamentale per prendere una decisione. E' giusto eliminare metà della popolazione perché altrimenti siamo in troppi? Sì, e se la IA decidesse che è tua figlia/o ad essere di troppo? Magari se hai due bambini, decide che entrambi non servono per un futuro migliore, o tutti e 5... sei sicuro che dici "ma sì, l'ha detto la IA quindi va bene così (ecco che ritorna il giusto/sbagliato ma su quali basi e conoscenza non si sa... sei sicuro che sia neutrale la sua decisione per un "giusto" che non conosci? Leggi quanto ho scritto nel primo commento). Il cervello di un essere umano non è sostituibile da una macchina per la semplice ragione che la macchina NON sa cosa è giusto o sbagliato, nel senso che non sa cosa serve o meno a un umano. Se lo sa è perché qualche cervello umano glielo ha insegnato. Ma mille cervelli in mille posti diversi del pianeta hanno idee diverse di ciò che sia giusto o sbagliato. E addestrerebbero le IA in maniera diversa a prendere decisioni diverse sullo stesso problema (e in ogni caso sarebbero tutte decisioni "giuste" per la IA e il suo addestratore). |
|
27-05-2022, 15:21 | #17 | ||||||||
Senior Member
Iscritto dal: Sep 2008
Messaggi: 5745
|
Quote:
Quote:
Quote:
Quote:
Quote:
Aborro come chiunque abbia un bagaglio filosofico moderno l'idea stessa di un mondo che ragioni secondo concetti di bene e male. Tizio spara e uccide Caio. (Tizio è il male, Caio è il bene o neutrale) Tizio spara perché Caio è un rapinatore che stava per uccidere Sempronio. Ecco che bene e male si sono completamente ribaltati. Potremmo continuare all'infinito ribaltando bene e male. Fino ad arrivare alla conclusione che perfino il serial killer agisce pensando di essere nel giusto. Ci sono solo pochissimi, rarissimi casi documentati di persone che hanno lucidamente dichiarato di aver compiuto azioni consapevoli di essere dalla parte del torto. Quote:
Nel mondo animale dove la sopravvivenza è essenziale ci sono decine di esempi di come a volte i genitori stessi selezionano la prole per garantire le maggiori chance di sopravvivenza possibili. Quindi gli animali sono cattivi? Sbagliati? O semplicemente attuano la strategia migliore? Quote:
Quote:
Una macchina dovrebbe agire nel modo più efficace ed efficiente secondo i propri standard e non quelli dell'uomo. Comunque con tutto questo stiamo andando spaventosamente OT e penso che se vuoi continuare ci meriti farlo in privato perché nel forum non son graditi questi OT anche se la reputo una discussione molto interessante. |
||||||||
27-05-2022, 15:44 | #18 |
Senior Member
Iscritto dal: Sep 2013
Messaggi: 7498
|
"foto di una biondona tutta nuda con le tette grosse" dite che funzionarà?
|
27-05-2022, 16:00 | #19 | ||||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Non credo siamo off topic, mica stiamo parlando di AMD vs Intel o AMD vs Nvidia anche qui.
Secondo me ti stai un po' confondendo e anche contraddicendo. Quote:
Che crei se non hai uno scopo e lo scopo come te lo poni se non sei emotivamente giustificato a raggiungerlo nonostante i sacrifici? Quote:
Perché cosa c'è di sbagliato nel dire che la diagnostica non serve e chi si ammala sono 'azzi suoi se non esiste il BENE o il MALE e ogni decisione è lecita? Quote:
Una macchina che non sa distinguere bene o male non avrà cura di salvare alcuna vita umana (che gliene frega). Se compie una azione o fa una decisione lo fa perché reputa che farlo sia più vantaggioso che non farlo. Vantaggio = bene, danno = male. Decidi tu se chiamare bene/male o vantaggio/svantaggio, o beneficio/danno. Sono la stessa cosa, ma in qualche modo vanno distinti. Altrimenti la NON azione completa è la cosa giusta e tanto vale inventare AI o anche solo alzarsi la mattina dal letto. Quote:
Non si tratta di sapere se una cosa è BENE o MALE ma solo sapere che nonostante tutto le scelte sono sempre basate su quei motivi. Anche l'animale che sacrifica la prole fa questo ragionamento. C'è un bene che va oltre la vita del figlio. E lo persegue. Non volesse perseguire il bene non farebbe il figlio già dall'inizio (riproduzione = bene = continuazione della specie, un figlio morto = male ma se non mette a repentaglio chi può continuare a procreare anche dopo la sua morte quindi = bene). Chi decide cosa è bene o male come volevo farti capire cambia. Una IA è pericolosa perché il suo concetto di bene o male le è instillato o se vogliamo parlare di roba estremamente evoluta, se l'è creato senza tenere conto "dell'emotività" che è poi ciò che ci rende umani. Altrimenti, se non esiste bene o male e va tutto per efficienza, la prossima volta che sono in coda per qualche motivo, uccido tutti quelli davanti a me e risparmio tempo e aumento la mia efficienza nel fare le cose nel meno tempo possibile. E' corretto? Una AI come la vuoi tu lo farebbe, tanto uccidere = non è MALE, il male non esiste, basta che si aumenti l'efficienza Ultima modifica di CrapaDiLegno : 30-05-2022 alle 21:03. |
||||
28-05-2022, 22:33 | #20 |
Senior Member
Iscritto dal: Jul 2001
Messaggi: 3464
|
Non se escludono la pornografia...
__________________
www.biffuz.it | Thou shall not follow the NULL pointer, for chaos and madness await thee at its end. Powered by: M1 @ Sonoma | 3770k @ W10 | C2Q @ XP | P!!! @ W98+BeOS | 286 @ W3.1 | C64 | iP8+ | iPad8 | rPi4 | and more... |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 13:24.