(资料图片仅供参考)
谷歌母公司Alphabet已向其员工发出警告,不要使用吟游诗人,谷歌自己的聊天机器人,已经获得了一段时间的牵引力。发出此警告的原因很简单,该公司不希望员工在聊天机器人中输入任何机密或敏感信息,并且还讨论了与使用这些工具相关的风险。这不是公司第一次提出这样的担忧,出于正确的原因,因为这些聊天机器人不断学习和发展,但与此同时,它们确实有犯错误的倾向。
在三星之后,甚至谷歌也警告其员工不要使用像巴德这样的聊天机器人。
除了不广泛使用有风险的敏感信息的聊天机器人外,谷歌还建议工程师避免直接使用聊天机器人提供的代码。简而言之,尽管Bard或其他聊天机器人提供的代码可能是准确的,但始终存在代码不正确的风险,从而导致错误和结果,而这些错误和结果并不是工程师所期望的。
考虑到这一点,谷歌并不是唯一一家警告不要使用人工智能聊天机器人的公司。三星实际上已经禁止其员工出于同样的担忧使用ChatGPT或任何其他聊天机器人。与此同时,我们听说公司正在努力开发自己的大型语言模型,所以我们可能很快就会在未来看到一些东西。苹果还限制员工从使用巴德,所以可以肯定地说,担忧是真实的。
我确实理解人们对使用聊天机器人的担忧,特别是对于苹果、三星和谷歌等大公司。特别是当员工可以访问大量不应该泄露的信息时。希望这将防止机密和敏感信息落入坏人之手,因为在这一点上,这不仅仅是产品泄漏,而是更多的利害关系。
与使用聊天机器人相关的风险足以证明,就为您提供任何具体证据而言,它们并不是最可靠的产品。而且,将敏感信息提供给聊天机器人绝对不是我们建议任何人的事情,因为它可能导致信息成为机器人的永久部分并落入其他人手中。