云数据安全公司Sentra ,发布了一项新功能Sentra ChatDLP Anonymizer,旨在从人工智能语言模型的提示中提取个人身份信息(PII),如ChatGPT和Google Bard。
随着这项功能的实施,Sentra ,旨在最大限度地减少与关键个人数据相关的漏洞,并协助公司保持对《加州消费者隐私法》(CCPA)和《通用数据保护条例》(GDPR)等隐私法规的遵守。ChatDLP Anonymizer已经可用于ChatGPT,并将在6月12日这一周为Google Bard发布。
据Sentra ,在ChatGPT或Bard提示中纳入PII可能会导致数据成为大型语言模型训练集的一部分。虽然这种技术提供了生产力的好处,但也引起了人们对数据隐私和安全的关注。ChatDLP Anonymizer为注重隐私的公司提供了使用ChatGPT或Bard的机会,同时保证了隐私保障。
为了过滤掉姓名、电子邮件地址、信用卡号码和电话号码等敏感信息,ChatDLP Anonymizer利用了命名实体识别(NER)模型。此外,该工具还提供了一个企业版本,其中编辑过程发生在客户的云基础设施中。
在讨论ChatDLP Anonymizer的发布时,Sentra 的联合创始人兼首席技术官Ron Reiter说:"在利用这项新兴技术的力量的竞赛中,企业正在承担新的安全和数据隐私风险。"他继续说:"在过去几个月里,我们受到一些首席信息官和安全专家的鼓励,开发并提供ChatDLP Anonymizer,作为我们DSPM平台的合理延伸。通过实施这项创新技术,企业将能够确信员工正在安全地使用AI语言模型。"
在人工智能驱动的应用程序中纳入此类功能对于维护用户数据的安全和隐私至关重要。No-code 平台,如AppMaster,使企业能够创建定制的网络、移动和后端应用程序,同时将隐私放在首位。AppMaster'sno-code 平台帮助企业创建高效、可扩展和安全的应用程序,而引入类似于Sentra的ChatDLP Anonymizer的功能可以进一步加强这些应用程序的隐私保护。