La startup di Sam Altman ha deciso di rilasciare il suo ultimo modello GPT-5.4-Cyber solo a un gruppo di esperti, affinché i suoi rischi vengano mitigati. Stessa scelta ha fatto Anthropic. Le Big Tech pongono l’accento sui pericoli dell’IA, ma hanno bisogno che la politica li supporti
Dopo Anthropic, OpenAI. La startup di Sam Altman ha deciso di rilasciare il suo nuovo modello di intelligenza artificiale, incentrato sulla cybersicurezza, solamente a un gruppo di soggetti specializzati. GPT-5.4-Cyber è capace di “offrire capacità cyber aggiuntive ed è soggetta a meno restrizione”, si legge sul blog dell’azienda. “Poiché questo modello è più permissivo, iniziamo con un rilascio limitato a fornitori di sicurezza, organizzazioni e ricercatori approvati”. Faranno parte del programma Trusted Access for Cyber (TAC), già introdotto all’inizio di febbraio per il modello GPT-5.3-Codex. Per ottenere l’accesso, agli utenti singoli viene richiesta l’identità mentre alle aziende di sottoscrivere un modulo che ricevono da OpenAI. Impossibile non avanzare un paragone con il modello di Anthropic....
L'articolo di Lorenzo Santucci è a questo link:
Nessun commento:
Posta un commento