热点在线丨谷歌已向其员工发出警告警告使用公司自己的聊天机器人巴德的相关风险

2023-06-18 10:49:46


(资料图片仅供参考)

谷歌母公司Alphabet已向其员工发出警告,不要使用吟游诗人,谷歌自己的聊天机器人,已经获得了一段时间的牵引力。发出此警告的原因很简单,该公司不希望员工在聊天机器人中输入任何机密或敏感信息,并且还讨论了与使用这些工具相关的风险。这不是公司第一次提出这样的担忧,出于正确的原因,因为这些聊天机器人不断学习和发展,但与此同时,它们确实有犯错误的倾向。

在三星之后,甚至谷歌也警告其员工不要使用像巴德这样的聊天机器人。

除了不广泛使用有风险的敏感信息的聊天机器人外,谷歌还建议工程师避免直接使用聊天机器人提供的代码。简而言之,尽管Bard或其他聊天机器人提供的代码可能是准确的,但始终存在代码不正确的风险,从而导致错误和结果,而这些错误和结果并不是工程师所期望的。

考虑到这一点,谷歌并不是唯一一家警告不要使用人工智能聊天机器人的公司。三星实际上已经禁止其员工出于同样的担忧使用ChatGPT或任何其他聊天机器人。与此同时,我们听说公司正在努力开发自己的大型语言模型,所以我们可能很快就会在未来看到一些东西。苹果还限制员工从使用巴德,所以可以肯定地说,担忧是真实的。

我确实理解人们对使用聊天机器人的担忧,特别是对于苹果、三星和谷歌等大公司。特别是当员工可以访问大量不应该泄露的信息时。希望这将防止机密和敏感信息落入坏人之手,因为在这一点上,这不仅仅是产品泄漏,而是更多的利害关系。

与使用聊天机器人相关的风险足以证明,就为您提供任何具体证据而言,它们并不是最可靠的产品。而且,将敏感信息提供给聊天机器人绝对不是我们建议任何人的事情,因为它可能导致信息成为机器人的永久部分并落入其他人手中。

关闭
精彩放送