,来自斯坦福大学的多名计算机科学家发现,用Github Copilot和脸书·因科德等人工智能工具编写的代码安全性低于人类程序员编写的代码。
在最近发表的《用户是否用ai助手编写了更多的插入代码在这篇论文中,斯坦福大学的Neil Perry,Megha Srivastava,Deepak Kumar和Dan Boneh给出了肯定的答案更糟糕的是,他们发现AI help经常在产品质量上误导开发者
本站了解到,这些科学家在他们的论文中写道:我们发现,完全由人类程序员编写的代码,以及在AI辅助下编写的代码,产生了明显更多的安全漏洞,尤其是在字符串加密和SQL注入方面而且令人惊讶的是,与无法访问AI助手的参与者相比,提供访问AI助手的参与者更容易相信自己编写了安全代码
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。