
C’è una società, Anthropic, che ha sviluppato Claude, un modello di intelligenza artificiale.
C’è il Pentagono che vuole usarlo ma chiede (anzi, ordina) di togliere tutti i filtri etici al modello di IA per poterlo usare liberamente a fini bellici. Altrimenti cancellerà il contratto da 200 milioni di dollari e metterà la società sulla lista nera.
Anthropic rifiuta, perché ci sono due punti non negoziabili: l’intelligenza artificiale non può essere usata per la sorveglianza di massa dei cittadini americani e per sviluppare armi autonome in grado di uccidere senza un controllo umano.
Il Pentagono allora classifica Anthropic come minaccia alla sicurezza nazionale.
Il Presidente del paese più potente al mondo, ordina a tutte le agenzie federali di non usare più la tecnologia di Anthropic.
Questo perché Anthropic ha detto di no al superamento degli ultimi limiti etici rimasti.
Ah, altre società tipo ChatGPT l’accordo con il pentagono l’hanno firmato. Questo dovrebbe allarmarci. Molto.
Però.
L’idea che non contiamo niente e non possiamo fare nulla è quella che ci porta a rassegnarci e a smettere anche solo di sperare di poter cambiare le cose.
Ma in realtà qualcosa la possiamo fare. Ad esempio sostenere chi prova a opporsi alla follia dilagante.
Sapete dove scaricare Claude, vero?