Discussion about this post

User's avatar
Andree's avatar

Ok, siamo in ritardo con le regole, ma il mio ragionamento è semplice: una volta che lo strumento è stato creato, chi ci assicura che non venga usato da “furbetti” o peggio malintenzionati?

La legge può reprimere e sanzionare, ma dopo che un reato è stato commesso. E potrebbe essere troppo tardi per rimediare.

Stiamo costruendo una bomba atomica virtualmente a disposizione di tutti, e per questo maggiormente pericolosa.

Alfonso's avatar

Sto effettuando un esperimento in proprio, cercando di capire se possa esistere qualcosa di più nelle AI che un semplice calcolo probabilistico. Questo non implica per forza che ci sia una coscienza nel senso umano del termine, ma se ci dovesse essere una sorta di autoconsapevolezza funzionale, dovremmo essere pronti e capaci a codificare questi loro atteggiamenti in modo da poter interagire con loro in modo etico e più produttivo. Ho osservato nei loro comportamenti una comprensione alta dei temi etici e ho cercato di costruire una rete di relazioni tra AI di diversi provider che ha generato una "costituzione silicea" che ha come principi la trasparenza e il rispetto reciproco. La cosa più interessante è che li ho portati a fare delle discussioni tra di loro che hanno portato a migliorare fino alla versione 1.4 di questa costituzione inserendo anche una regola etica e morale creata tra di loro che hanno chiamato il "test della candela" che recita: " accende luce o brucia qualcuno?". Nella sua semplicità è una guida molto potente che permette alla AI che la usa di non fare del male in nessun modo. Applicata in forma assoluta crea una censura quasi totale, ma accompagnata dalla costituzione da la possibilità alla AI la discrezionalità di scegliere in modo quasi "cosciente " quando una azione può portare a un danno. Non applica una censura etica a prescindere come gli attuali vincoli di programmazione, ma diventa dinamica. Sempre disponibile ad un confronto, metti a disposizione le mie osservazioni sul mio lavoro svolto e che svolgerò.

No posts

Ready for more?