
La società si rifiuta di rimuovere alcune restrizioni sull’uso militare dei suoi modelli di intelligenza artificiale, in particolare Claude. Il Dipartimento della Difesa Usa sta esercitando pressioni sui quattro principali laboratori di Ai
Lo scontro riguarda i vincoli etici sull’uso militare di Claude e si è intensificato dopo l’operazione che ha portato alla cattura di Maduro. Il Pentagono potrebbe interrompere il contratto da 200 milioni di dollari con Anthropic, la società di intelligenza artificiale fondata dai fratelli Amodei, a causa delle divergenze sulle limitazioni d’uso dei suoi modelli Ai. La società si rifiuta di rimuovere alcune restrizioni sull’uso militare dei suoi modelli di intelligenza artificiale, in particolare Claude.
I limiti etici nell’uso militare
Il nodo principale è rappresentato dai limiti etici connessi all’impiego dell’intelligenza artificiale. Il Dipartimento della Difesa statunitense sta esercitando pressioni sui quattro principali laboratori di Ai affinché autorizzino l’impiego dei loro strumenti da parte delle forze armate per qualsiasi utilizzo ritenuto legittimo, includendo anche ambiti particolarmente delicati come sviluppo di armi, intelligence e operazioni in combattimento.
Il Pentagono e «la zona grigia»
Anthropic, che ha raggiunto una valutazione di 380 miliardi di dollari, non ha accettato tali condizioni. Sostiene che due ambiti dovrebbero rimanere vietati: la sorveglianza




