Tuesday, May 12

Inteligența Artificială, tot mai periculoasă. Ce este „Godmode GPT” care te învață cum să faci napalm și să prepari metamfetamină la tine în bucătărie

Versiunea cu jailbreak se bazează pe cel mai recent model de limbaj al OpenAI, GPT-4o, și poate ocoli multe dintre măsurile de protecție ale OpenAI.

Leave a Reply

Your email address will not be published. Required fields are marked *