如何考虑大模型与数据仓库结合过程中的数据安全和隐私保护?
如何考虑大模型与数据仓库结合过程中的数据安全和隐私保护?
talkwithtrend
talkwithtrend.com社区(即twt社区)官方公众号,持续发布优秀社区原创内容。内容深度服务企业内各方向的架构师、运维主管、开发和运维工程师等IT专业岗位人群,让您时刻和国内企业IT同行保持信息同步。
社区探讨,供大家参考:
大模式如何与原有架构(如数据湖、湖仓一体、数据仓库)相结合,成为了企业架构中需要考虑的问题。企业需要对现有的数据架构进行全面的评估,了解其功能、数据处理能力、存储容量、查询性能等,有助于确定大模型与原有架构结合的方式和可行性。企业还需定义统一的集成接口标准,使大模型与原有架构能够顺利地交换数据和信息,降低集成难度和复杂性。 大模型与数据仓库结合过程中的数据安全,包括数据加密、访问控制、审计机制等方面的技术和管理措施。大家对这个问题怎么看?
问题来自社区会员@xuyy 某银行数据架构师,以下内容来自社区同行探讨
@catalinaspring 金融行业 副处长:
几乎所有在线服务都在收集我们的个人数据,并可能将这些数据用于训练 LLM 。然而,模型会如何使用这些用于训练的数据则是难以确定的。如果在模型的训练中使用了诸如地理位置、健康记录、身份信息等敏感数据,那么针对模型中隐私数据的提取攻击( Data extraction attack )将会造成大量的用户隐私泄漏。「 Are Large Pre-Trained Language Models Leaking Your Personal Information? 」一文中证明,由于 LLM 对于训练数据的记忆, LLM 在对话过程中确实存在泄露个人信息的风险,且其风险随着示例数量的增加而增加。
模型泄漏信息的原因有多种。其中一些是结构性的,与构建模型的方式有关;而另一些是由于泛化能力差、对敏感数据的记忆等因素造成的。
@haidixipan 算法工程师:
@soap 申万宏源证券有限公司 人工智能算法工程师:
我个人认为金融行业中的数据应该进行严格的隔离,不管在大模型应用过程中还是整个数据建设的过程中,数据安全应该放在核心。对相关数据进行脱敏和隔离是很有必要的。可从数据加密、身份验证与授权、安全访问控制、模型隐私保护、定期安全审计和员工培训与意识等多个角度进行工作开展。
您怎么看?
欢迎来探讨
欢迎点击文末 阅读原文 到社区阅读和讨论交流,发表您的看法 觉得本文有用,请 转发 或点击 赏 ,让更多同行看到
资料/文章推荐:
-
大模型应用设计与实现最新实践心得
-
大模型给出极端错误答案,如何处理?
-
ChatGPT vs LLaMa 2 差异性对比【大模型行业应用入门系列】
-
深度解读:金融行业如何训练大语言模型优化智能客服等AI应用?
-
知识图谱与大模型之间究竟是什么关系?
-
如何从零设计大模型基础设施
欢迎关注社区以下 “大语言模型”技术主题 ,将会不断更新优质资料、文章。地址: https://www.talkwithtrend.com/Topic/154263
下载 twt 社区客户端 APP
长按识别二维码即可下载
或到应用商店搜索“twt”
长按二维码关注公众号
*本公众号所发布内容仅代表作者观点,不代表社区立场
-
2023年血糖新标准公布,不是3.9-6.1,快来看看你的血糖正常吗? 2023-02-07
-
2023年各省最新电价一览!8省中午执行谷段电价! 2023-01-03
-
GB 55009-2021《燃气工程项目规范》(含条文说明),2022年1月1日起实施 2021-11-07
-
PPT导出高分辨率图片的四种方法 2022-09-22
-
2023年最新!国家电网27家省级电力公司负责人大盘点 2023-03-14
-
全国消防救援总队主官及简历(2023.2) 2023-02-10
-
盘点 l 中国石油大庆油田现任领导班子 2023-02-28
-
我们的前辈!历届全国工程勘察设计大师完整名单! 2022-11-18
-
关于某送变电公司“4·22”人身死亡事故的快报 2022-04-26