AI工具如ChatGPT和吟游诗人更加强大,组织必须开发人工智能使用员工的政策指引。我们探索公司在做什么,在你的AI AUP模板。
尽管预测(和元的30多亿美元的赌博),metaverse将成为下一个数字地平线我们交叉,这是人工智能工具,影响了整个世界的想象力。
2022年12月,OpenAI ChatGPT工具,几乎一夜之间,从我们从未听说过的东西比1990年代furby玩具更受欢迎。
你们可能知道,ChatGPT(现在谷歌的吟游诗人工具)的一个例子生成的人工智能。
生成AI人工智能领域,可以从现有的材料创造出新的内容。
DALL-E2等工具,例如,使用基于单词提示生成新的图像。
Bing形象的创造者所施的Furby的形象让我害怕。
在许多艺术衍生工具的情况下,强大的软件擦伤成千上万的图像和text-to-image配对。然后使用这些信息来生成新的图片。
文字,音乐,数据和视频都使用类似的生成模型。在每种情况下,人工智能产生的“新”的内容已经存在。
撇开关于知识产权和工人位移的问题,可能是明确的。
员工们如何已经使用生成的人工智能
ChatGPT本身已经积累了超过1亿用户——他们中的许多人使用它来支持他们的工作。
我问ChatGPT五常见的与工作相关的提示。这就是它显示单个用例:
1。写作帮助——人们常常问我帮他们完成写作任务,比如为他们的网站创建内容,起草邮件,甚至写论文。
2。研究——很多人问我,帮助他们与研究任务,如发现信息在一个特定的主题或编译来自多个数据源的数据。
3所示。翻译——人们经常问我帮他们翻译任务,如翻译从一种语言到另一个文档或交谈。
4所示。数据分析——人们常常问我,帮助他们与数据分析任务,如创建图表和图形或识别数据中的模式。
5。调度——人们常常问我,帮助他们与调度任务,比如设置会议或约会。
来源:ChatGPT
随着人们变得更善于利用人工智能提示,这些工具将用于更高级的方法。这可能包括计算机编程的自动化工作,目前需要人类的技能。
公司可以如何使用生成的人工智能
组织已经使用生成人工智能在更大的规模。这包括:
- 改善客户服务: 生成人工智能可以通过生成文本创建个性化的客户体验,为客户音频和视频内容。雷竞技rat
- 更好的利用数据: 分析大量数据和模式,很难看到。这些信息可以改善决策和做出更好的产品和服务。
- 提高运营效率: 自动化任务,比如生成报告或创建营销材料(杯)。
- 提高员工生产力:互动的AI-powered内部网工具有几种用途,其中一个是一个机器学习语言检查程序。这个工具提供了写作建议支持内部网的内容创造。
的技术仍处于早期阶段,但他们有可能彻底改变工作的许多领域。
有什么风险没有一个AI使用政策?
除了微弱的危险机器可能会有知觉的和接管地球,也有一些平淡无奇的组织需要考虑使用的原因人工智能在工作场所。
在一个最近的调查的高级领导人,例如,几乎六10(59%)质疑精度生成的人工智能输出。近三分之二(63%)的潜力偏见,如错误信息或仇恨言论。这是为什么呢?
首先,人工智能并不总是正确的。如果一个工具,如吟游诗人扫描文件,并不准确,它将返回错误的结果。允许所有员工使用这些工具没有使用AI政策可能导致错误蔓延到产品、服务、客户关系、到你内联网软件。
其次,只使用开源数据生成人工智能平台。互联网上的信息不是已经在系统不会被发现。这可能导致过度依赖有限的信息当更多的数据存在内部或付费墙的后面。
第三,没有监督,存在一种危险的偏见和攻击性内容的生成。根据吟游诗人:
“如果你问诗人来生成一个关于某一群人的故事,它可以生成一个故事有攻击性或有害的那群人。”
最后,也许最重要的是为企业,信息安全是一个潜在的威胁。巴德州提供的提示和信息用户存储在谷歌的服务器上,然后可以用来训练系统,或者,有些含糊其辞,“挪作他用”。
如果员工使用客户的私人信息,前景,或同事没有护栏,数据安全隐患增加。雷竞技rat
公司用一个人工智能的例子使用政策
以同样的方式,组织设置和审查社交媒体政策,一个人工智能的使用政策对意识至关重要。
我们采访了一些专业人士的实施细则。
斯图尔特·邓洛普说,联合创始人Linkbuilder.io,其“员工禁止将任何保护或机密信息放入搜索引擎由人工智能。”
提高意识的新政策是很重要的,所以公司”决定发送广播通知通过电子邮件,定期更新每周员工会议举行期间在线放大或团队——哪个更方便呼吁每个人都参与进来。”
同样,本Lamarche锁定搜索群认为,“有必要实施规定,限制员工的信息可以输入到人工智能工具。员工有义务来保护机密信息,否则可以使用你的竞争对手。”
除了数据安全,Lamarche也看到了需要编写知识产权从一开始就考虑。
“这也是制定政策的关键内容的所有权员工使用人工智能工具创建的组织。有书面员工AI使用政策和嵌入在雇佣合同绝对是进步的路要走到机器学习的新时代”。
Ben Lamarche锁定搜索组
平衡安全与创新
在绩效管理平台,Appraisd沃克首席执行官的角色需要一个平衡的人工智能方法使用。
“尽管我们认为人工智能工具是一个绝佳的机会来改善流程,我们关心的是人们使用人工智能工具,尤其是对数据隐私。”
计数器,AI Appraisd使用政策给员工特定的用户指南。
“我们的指南,说明你无法与真实数据实验——您必须使用“嘲笑”数据进行测试。的指导方针在公司每周例会,传达我们接受这是一个移动的目标和添加新的指导方针。一般来说,谨慎行事的准则是使用假数据。认为别人可以访问你输入一个搜索引擎,除非尽职调查过程建立了你的私人数据。”
就像其他科技公司,然而,沃克鼓励创新。
“我们鼓励员工展示他们发现彼此使用ChatGPT想法。我们每年举办一次马拉松”,旨在给所有员工时间探索新技术。最近我们谈到ChatGPT整合的可能性,和类似的工具,在我们最后的社区活动中与客户对他们的感情AI和其潜力和风险。”
除了指南,一些公司已经将更严格的措施。首席执行官和创始人之一平衡一个补充,詹姆斯·威尔金森表示,他的公司是“建立一个系统的过程中监控和审核所有的人工智能搜索引擎活动检测和最小化任何暴露的受保护的数据以及未经授权使用生成的人工智能工具,违背我们的用例的政策。”
“假设别人可以访问你输入一个搜索引擎,除非尽职调查过程建立了你的私人数据。”
首席执行官角色沃克,Appraisd
可接受的使用政策模板
策略提示仅供参考以下提供一些通用的指导原则。
这些标题和建议不考虑国际法上的差异或在您的组织中特定的用例。他们不是一个法律文件,你应该咨询内部利益相关者在法律、人力资源和其他功能。
你也应该查阅所有相关官方机构创建任何这样的政策和建议。
目的
AI的目的部分可接受的使用政策(AUP)状态的文档建立负责任的指导原则和最佳实践的使用人工智能。
可能提到AI使用政策是促进人工智能工具的创新使用,同时尽量减少潜在的有意或无意的滥用,不道德的结果,潜在的偏见,不准确,信息安全漏洞。
范围
范围通常引用范围的员工,志愿者,承包商,任何个人或组织可能获得和使用人工智能与贵公司或代表。
人工智能的使用范围可以覆盖的使用人工智能工具的工作任务(在任何位置),但也可能包括私人任务进行使用笔记本电脑或其他设备或登录提供的公司。可以参考的潜在使用创建的任何数据或存储在您的组织(例如,记住客户的电子邮件地址,然后使用它的时间)。这就是AUP可能重叠与其他数据监管指南和安全流程在你的公司。
政策
本节规定了不同的员工应遵循最佳实践和指导方针。
下面的列表不是详尽的;你们的政策应该是一个生活,迭代不断更新和修改文档。
下面是一些注意事项。
评估和批准使用
一些组织将规定,员工必须评估安全、人工智能工具的服务条款和隐私政策。然而,你的IT部门可能有一个过程评价,所以员工应该检查批准的软件列表,提交一个请求访问如果需要一个新的平台。
遵守安全政策
安全策略适用于新工具以及现有的。确保公司继续坚持立法(和符合安全认证)员工应该使用强密码,允许安全更新,并遵循相关政策。这可能包括不共享登录凭证或其他安全信息与第三方工具。
数据安全性和机密性
员工必须遵守数据保护政策在使用生成的人工智能。就像上面所提到的,在许多情况下与人工智能可以共享公共的数据。客户或同事分享信息可能构成重大的违反规定的数据。雷竞技rat敏感或个人数据应该被匿名或加密的“嘲笑”。
报告数据泄露的政策应该包含一个过程符合您公司的数据保护的指导方针。
适当使用
AI工具都有自己的适当使用政策,员工应该检查和跟进。使用AI创建有害、进攻或歧视性内容,例如,不得违反服务条款,而是一种违法行为。
公司应该建议和培训员工这不会发生(有意或无意)在公司时间和使用公司设备。
同样重要的是大纲如何AI工具将被视为公司的其他歧视政策的一部分,隐私,或不适当的行为,例如。
识别和减轻偏差
我们已经证实艾未未输出是潜在的偏见(取决于信息系统培训)。如果员工和组织要使用这些AI输出作为其工作的一部分,他们将如何减轻这些偏见吗?
建议可能包括定期评审的输出不同的股东群体,指导和训练算法的偏见,与人工智能和协作平台供应商减少偏见。
也可能有交叉与DE&I政策在这一点上有潜在风险AI工具来生成歧视性的或攻击性的内容。
验证的准确性
的一个问题和基于人工智能工具,如ChatGPT吟游诗人,当要求统计,他们经常不给来源。因此,它可能很难验证信息从何而来,它有多准确。
员工应该审查信息从人工智能工具之前使用它。任何事实,数据,或见解应该反复核对与可靠的来源,以确保准确性和避免错误。
透明度
人们有权利知道内容已由人工智能?
在某些情况下,这将是无关紧要的,但在很多领域的工作这是一个重要的问题。如果你的设计机构或广告公司依赖于生成人工智能,在一半的时间工作作为一个人,但仍收取相同的时间,你的客户有权利知道吗?
同样,消费者想要采取法律或金融建议已经被一个AI工具生成的,然后寄给他们作为人类的建议吗?
本节应详细披露所需要的指导方针。
培训
你的AI AUP包括训练元素吗?它可能不是法律授权,但尤其是在高度监管或咨询行业,公司制定培训和认识项目可能有利。
这部分可能包含的频率和交付方法训练的细节或资源。作为人工智能是一个快速发展的领域,您可能还希望任命一个内部冠军的责任就是监测和更新培训。
知识产权
符合国际和当地法律(公司指导方针),员工必须尊重知识产权(知识产权)。使用人工智能工具,剽窃内容或侵犯知识产权AUP应该解决。
正如前面提到的,还应该考虑你是否需要归因AI-generated内容。
报告滥用或担忧
应该鼓励员工,有渠道,报告滥用或不当使用的担忧AI工具。
验收表
所有员工阅读和理解是很重要的政策由公司出发。验收的声明可能加强每个员工的责任,提醒他们他们的职责对人工智能平台。
本节也大纲,这个公司还监控着接受。互动平台提供了一个“强制性的阅读”系统,所有的工作人员通知更改政策,然后必须表明他们已阅读并理解该文档。这是重要的遵从性目的。
或者,您可能会问员工签署和日期的政策。
免责声明:这里的可接受的使用政策建议咨询和不全面。无论是作者还是互动假设可能会引起的任何法律责任,这一政策的使用。
此页面上的特征图像的来源图像由rawpixel.comFreepik。
