5月4日消息,随着生成式AI的大火,越来越多的企业也加入了这场激动人心的竞赛。但是,该技术的使用也引起了安全和隐私问题的关注。三星电子最近宣布,禁止其员工使用流行的生成式AI工具,如ChatGPT、GoogleBard和Bing。据该公司透露,他们的担忧在于传输到这些人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。这一决定也是由于该公司之前使用聊天型机器人ChatGPT,不到20天就曝出机密数据外泄,甚至有员工将代码上传的事件。
此外,ITBEAR科技资讯了解到,摩根大通、美国银行和花旗等华尔街大行也禁止或限制使用ChatGPT。这进一步说明了生成式AI技术的安全和隐私问题引起的广泛担忧。
针对此问题,三星电子已经采取了一系列措施以确保数据的安全性和保密性。公司最大的部门之一被要求不得在公司所属的电脑、平板电脑、电话及内部网络使用生成式AI系统。这些措施将确保公司的机密信息不会外泄,避免了企业在安全上面临的风险和挑战。
据ITBEAR科技资讯了解,虽然生成式AI技术已经在各个领域展现出了极高的应用价值,但它也带来了难以忽视的风险和挑战。在使用该技术的过程中,必须制定更加严格的安全和隐私政策,加强员工的教育和培训,以确保企业的机密信息不会泄露,同时保护消费者的权益和利益。只有这样,我们才能更好地利用生成式AI技术的优势,推动数字经济的快速发展。
本文链接://www.dmpip.com//www.dmpip.com/showinfo-45-1569-0.html生成式AI技术的安全问题引发行业忧虑 华尔街大行纷纷禁用
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com