工学院信息系统研究中心的研究科学家

Where business professionals discuss big database and data management.
Post Reply
badabunsebl25
Posts: 690
Joined: Tue Jan 07, 2025 6:14 am

工学院信息系统研究中心的研究科学家

Post by badabunsebl25 »

麻省理工学院的研究人员表示,员工在未经公司批准或监督的情况下在工作场所使用生成人工智能工具(这种做法被称为“自带人工智能”或BYOAI)可能会给企业带来风险。

“别误会,我这里说的可不是理论,”麻省理尼克·范德·梅伦( Nick van der Meulen) 在 《麻省理工学院斯隆管理评论》网络研讨会上表示。“这种情况已经发生了一段时间了。”

对于那些禁止使用ChatGPT等公开AI 聊天机器人 捷克共和国电报数据 的公司来说,BYOAI 的诱惑可能尤其强烈。出于监管和安全方面的考虑,三星、Verizon、摩根大通和其他银行已经禁止或限制使用外部 AI 聊天机器人。

麻省理工学院表示,随着人工智能模型变得越来越强大并且可供任何人免费使用,这个问题在商业领袖中变得越来越 紧迫。

范德梅伦 (van der Meulen) 和同事Barbara Wixom的研究表明,去年大型组织中约有 16% 的员工已经在使用人工智能工具,预计到 2027 年这一数字将上升到 72%。这包括经批准和未经批准的人工智能使用。

他们警告说,员工在没有指导的情况下使用这些工具会带来风险。

“当敏感数据被输入到你无法控制的平台时会发生什么?当商业决策是基于没有人完全理解的输出时会发生什么?”范德梅伦问道。
Post Reply