研究人员发现了一种绕过GPT-4安全防护机制的方法,即通过十六进制字符串转换,成功地让GPT-4编写出了恶意攻击程序。
这一发现揭示了AI模型在处理复杂指令和上下文理解方面的局限性,同时也强调了AI开发者需要加强模型的安全防护,以防止潜在的滥用和攻击。