随着生成型人工智能(AI)的指数级增长,有迫切的需要评估这些解决方案在工作场所中的法律、伦理和安全影响。
业界专家强调的其中一个问题经常是许多生成型AI模型所训练的数据缺乏透明度。
关于像GPT-4这样的模型所使用的训练数据的具体内容,信息不足,而这些模型又为ChatGPT等应用程序提供动力。这种缺乏明确性还包括与个体用户互动期间获取的信息的存储,从而引发法律和合规风险。
通过与生成型AI解决方案的互动,敏感公司数据或代码泄漏的风险令人担忧。
“当员工与受欢迎的生成型AI解决方案互动时,个别员工可能会泄漏敏感的公司数据或代码,”Oxylabs的风险管理主管Vaidotas Šedys说道。
“虽然没有确凿的证据表明提交给ChatGPT或任何其他生成型AI系统的数据可能会存储和与其他人共享,但由于新的且测试较少的软件通常存在安全漏洞,风险仍然存在。”
ChatGPT背后的组织OpenAI在提供有关用户数据处理方式的详细信息方面非常谨慎。这给寻求防止机密代码片段泄露的组织带来了挑战。对员工活动进行持续监控并对生成型AI平台的使用设置警报变得必要,这对许多组织来说可能是负担。
“进一步的风险包括使用错误或过时的信息,尤其是对于往往无法评估AI输出质量的初级专家而言。大多数生成型模型基于大但有限的数据集运行,需要不断更新,”Šedys补充道。
这些模型具有有限的上下文窗口,可能在处理新信息时遇到困难。OpenAI已经承认其最新框架GPT-4仍存在事实错误,这可能导致误导性信息的传播。
这些影响超出了个别公司。例如,流行的开发者社区Stack Overflow已经暂时禁止使用通过ChatGPT生成的内容,因为它的准确率较低,会误导寻找编码答案的用户。
在利用免费的生成型AI解决方案时,法律风险也开始发挥作用。GitHub的Copilot已经因将来自公共和开源代码库的受版权保护的代码片段纳入其中而面临指控和诉讼。
“由于AI生成的代码可能包含属于其他公司或个人的专有信息或商业秘密,使用这种代码的公司可能对侵犯第三方权利承担责任,”Šedys解释道。
“此外,不遵守版权法可能影响投资者对公司的评估,一旦被发现。”
虽然组织不可能实现完全的工作场所监控,但个人的意识和责任是至关重要的。教育大众有关与生成型AI解决方案相关的潜在风险是必要的。
工业领导者、组织和个人必须合作解决工作场所中生成型AI的数据隐私、准确性和法律风险。