公司如何利用个性化人工智能来操纵你

已发表: 2024-02-07
目录隐藏
1个性化的魅力
2监控营销模式
3成瘾而非对齐
4知情同意书
4.1扩大用户隐私保护
4.2能力透明沟通
4.3增强公共算法审计
5赋予用户选择权
6促进人工智能多元化
7围绕合成媒体建立透明度
7.1强制披露标准
7.2认证基础设施
7.3知情同意政策
7.4防止生成欺骗
8以公共利益监督指导人工智能
8.1专家顾问委员会
8.2政府监管
8.3全球规范和协议
8.4公众监督作为解药
9让社区做好应对经济影响的准备
9.1工作过渡支持
9.2合作过渡基金
9.3替代商业模式

使用人工智能定制内容和推荐的能力为消费者带来了宝贵的个性化体验。

但如果不小心,生成式人工智能开发服务也有可能代表企业利益操纵用户。

我们应该如何平衡人工智能的好处和防止滥用的保护?

个性化的魅力

应用程序和平台越来越多地利用人工智能来为每个用户提供独特的定制体验。

推荐引擎会根据您的口味定制媒体和产品。

聊天机器人根据您的对话模式进行交互。 生成式人工智能甚至可以即时制作个性化消息和创意内容。

这种由生成式人工智能开发服务提供支持的个人风格提供了明确的实用性。

客户感到被理解并收到与其需求相关的建议。

用户体验感觉不那么通用,更具吸引力。 品牌通过相关性建立忠诚度。

但在个性化的诱惑下,人们很容易忽视的是,这些相同的技术也使公司能够非常容易地以非常个性化的方式战略性地影响、利用和操纵用户。

监控营销模式

许多个性化模型依赖于大量数据监控、跟踪用户行为、关系、情绪、位置模式等。 这些丰富的行为模型加剧了操纵风险。

生成式人工智能服务可以挖掘这些个人数据,以查明我们的压力点——恐惧、不安全感、欲望——这些压力点使我们在被利用时容易受到有针对性的影响。 对用户的巨大影响力正在发挥作用。

一些平台逐渐向用户提供更加两极分化的内容,以追求参与度指标。

愤怒和恐惧被放大。 客观事实倾向于算法激进化。

虽然数据增强了相关性,但过度依赖监控也会威胁到用户自主权和社会凝聚力。 深思熟虑地平衡实用性和保护性问题。

成瘾而不是对齐

此外,最重要的是优化用户参与度的生成式人工智能服务可能会失去与用户福祉的一致性。

系统动态学习如何最好地吸引注意力、触发冲动并让用户不断滚动,利用相同的人工智能技术来优化健康、同理心和人类潜力。

然而,公司往往会鼓励人们上瘾,而不是与目标保持一致。

如果人工智能系统以奖励幻想而非真理的指标为指导,那么整个社区可能会因为参与算法控制思想而失去现实、同情心和理性。

这强调了监督和设计限制的必要性,以防止未经检查的人工智能仅仅为了私人利益而不是集体福祉而优化。

与道德的一致性必须保持不容谈判的态度。

由生成式人工智能服务提供支持的个性化还存在将共享现实分割成孤立的过滤气泡、扭曲世界观的风险。

当人工智能模型提供的信息适合用户现有的观点时,假设就不会受到挑战。

批评性话语逐渐消失。 细微差别消失了。 这种差异变得具有威胁性。 真理会分裂。

相反,生成式人工智能可以用来培养同理心、引入新想法、弥合分歧并培养共同理解。

但必须重新审视推动孤立而非包容的商业模式。

知情同意书

确保用户了解生成式人工智能系统是否、何时以及如何个性化电子内容以专门操纵他们的参与和行为也是一个重要的关注领域。

用户是否充分了解情况?

在治疗和教育等领域,模糊人类和人工智能指导之间的界限会引起道德担忧,可能需要围绕透明度进行特殊保护。

人工智能知情同意标准值得关注。

总体而言,实现生成式人工智能在道德方面的好处需要认真的监督。 但具体什么可以改善防止滥用的保护呢? 护栏应该出现在哪里?

扩大用户隐私保护

加强法律隐私保护措施,限制生成型人工智能开发服务访问、使用和保留个人数据的方式,为防止滥用提供基本保护。

特别是,在构建用于生成人工智能个性化的行为用户模型时,限制未经同意使用生物识别、通信、位置和关系模式等数据将有所帮助。

赋予用户更大的权利来审核他们的哪些数据被用于生成人工智能并请求删除,这也支持同意。

如果需要的话,允许用户完全选择退出个性化系统也是如此。

然而,生成式人工智能服务仅限于聚合匿名数据,造成操纵性个性化的风险要小得多。 开发具有内在道德的模型最为重要。

透明的能力沟通

图片来源

与用户进行清晰的沟通,解释生成式人工智能是否以及如何个性化内容也很重要——对限制设定适当的期望。

夸大生成式人工智能服务的复杂性可能会带来欺骗的风险,如果功能未能达到经过仔细检查的要求,就会背叛用户的信任。

生成式人工智能开发公司还应该提高模型功能、训练数据和指导个性化的评估指标的透明度。

优先考虑哪些与道德的一致性? 解释社会影响体现了责任感。

增强的公共算法审计

扩大法律权利和资源,使外部研究人员能够审核指导生成人工智能服务的算法,支持对滥用行为的问责。

针对偏见、操纵和对认知健康的影响等问题评估个性化模型的独立分析为人工智能与公共利益的结合提供了重要的监督,但公司必须促进安全访问。

民间社会团体和学术机构跨境合作并汇集审计能力将加强对全球人工智能系统的监督。 公共审计向公司施加压力,要求其表现出对道德的承诺。

赋予用户选择权

提供清晰的界面,使用户能够表达对生成式人工智能服务如何个性化信息的偏好,也可以促进赋权。

调整与内容主题、观点、数据使用、语气等相关参数的选项允许个人选择与其目标和价值观相符的体验。

直观地显示设置如何影响人工智能生成的信息景观的工具也可以建立理解。

最终,维持人类对信息生态系统的自主权有助于自我导向的繁荣。

促进人工智能多元化

防止生成型人工智能服务和数据在少数公司内部整合,可以降低系统性操纵风险,并支持具有独特价值主张的服务多样性。

强有力的竞争政策、互操作性标准和数据可移植权可防止对生成型人工智能能力的垄断,从而限制替代方案。

围绕道德具有独特创新的多种服务赋予用户权力。

以用户福祉为导向的投资支持非营利性公益平台,而不仅仅是利润最大化,提供了额外的选择。

追求公平分配的人工智能多元化,创造有益于社会的制衡。

围绕合成媒体建立透明度

随着生成式人工智能能够生成越来越令人信服的合成媒体(例如深度伪造),确保真实和虚假的透明度变得至关重要。 如果没有勤奋的政策,生成模型就有可能导致大规模欺骗。

强制披露标准

一项政策提案要求在分发之前明确标记人工智能合成媒体,类似于广告的披露。

这可以防止尝试将合成内容冒充为真实内容。

一些人主张在媒体文件上加水印以表明人工智能的出处。

其他人建议在播放期间需要文字或语音覆盖以口头方式披露合成来源。 标准应适用于商业和政治用途。

法律处罚和平台政策将强制遵守。

总体而言,强制披露建立了规范,防止通过忽略生成媒体的真实性而造成欺骗。

身份验证基础设施

此外,身份验证基础设施的进步可以使大规模验证媒体完整性变得更加容易。

支持区块链的媒体指纹、取证分析系统和通过生产管道的来源跟踪正在出现。

这些技术使平台、记者和监管机构能够有效验证媒体来源和完整性,而不是仅仅依赖披露。

指纹数据库还有助于识别未经披露的受操纵媒体传播。

随着生成模型变得越来越复杂,结合人力和技术专业知识的强大身份验证对于打击大规模错误信息至关重要。

支持高效验证的标准和平台应扩大访问范围。

知情同意政策

因为当个人的相似性被综合到他们从未同意的情况下时,个人就会受到伤害,因此围绕知情同意的政策也值得考虑。

一些人主张立法保护个人拒绝在生成模型中使用其数据和相似性的权利。

使用可识别数据训练生成系统可能需要选择加入权限。

事后撤销同意、清除训练数据和质疑未经批准的合成媒体的权利也可能有助于平衡生成人工智能的风险。

开发模型的公司有尊重身份和同意的道德义务。

防止生成欺骗

除了身份验证和披露之外,还需要加强防止使用生成人工智能进行彻底不道德欺骗的限制。

法律和平台政策应禁止故意传播可证明虚假的合成媒体,尤其是针对政客和选举的媒体。

当生成模型用于公然欺骗和欺诈时,它与核心民主价值观相矛盾。

还必须仔细制定标准,以避免不成比例的影响范围,从而无意中审查讽刺、模仿和受保护的言论。

然而,减少故意操纵的指导方针有助于强化规范。

公司、立法者和民间社会之间需要通力合作,实施全面的政策,打击破坏公众信任和话语的不真实的生成媒体。

以公共利益监督指导人工智能

将快速发展的生成式人工智能能力的治理完全交给私营公司可能会导致商业激励优先于公共利益。 独立监督至关重要。

专家顾问委员会

为了负责任地指导生成人工智能,领先的公司应该召集包括伦理学家、政策专家、研究人员和民权倡导者在内的专家顾问委员会。

这些团体可以评估新兴能力,进行影响审查,提出限制因素,标记潜在危害,并评估与人权和民主原则的一致性。 这种投入决定了内部政策。

应用不同视角的多学科审查有助于批判性、全面地解决生成人工智能系统中复杂的技术和道德维度。 外部投入加强了问责制。

政府监管

政府还有责任出于公共利益制定指导和限制生成人工智能的法规。 仅仅对股东负责是不够的。

规定透明度报告、外部审计和算法社会影响审查的法律可以提供健康的监督,鼓励谨慎行事,并消除公众辩论的担忧。

反操纵政策、身份权利保障、披露要求和认证标准也确保生成式人工智能加强民主和人类尊严。 平衡的监管制度非常重要。

全球规范和协议

由于生成模型在全球范围内迅速传播,阐明共同原则和禁止做法的多边协议也值得追求。

国际社会应努力培育围绕同意、归属、真实、不操纵、问责和监督的规范,提供全球道德指南针。

不同的国家政策会导致剥削。

虽然达成共识需要时间,但即使是不完善的协议,阐明了反对恶意使用生成人工智能的红线和最佳实践,也能在集体责任方面取得进展。 如果没有合作,风险就会增加。

公众监督作为解药

总体而言,培养一种透明、辩论和多学科批评的文化,重点是确保生成式人工智能造福社会,为潜在危害提供了强有力的解药。

采用各种视角进行严格的公众监督,重点是防止与人权和民主原则不一致,有助于引导这些强大的技术走向正义,而不是压迫。

事实证明,根据公共审查建立的生成式人工智能模型,在设计上具有积极主动的道德规范,比为不受控制的利润和影响力而优化的不透明系统更值得信赖。

健康的监督和问责很重要。

让社区做好应对经济影响的准备

随着生成式人工智能使许多创造性任务和媒体制作角色自动化,社会

必须尽量减少对失业工人的不利经济影响和就业中断。

工作过渡支持

采用生成式人工智能减少对人类角色的需求的公司有责任资助计划,通过培训和就业安置合作伙伴关系帮助受影响的工人过渡到新的职业。

遣散费、调整津贴、学费支持和职业咨询帮助工人在技术进步改变行业的过程中不被抛在后面。 大公司应该按比例做出贡献。

合作过渡基金

将跨公司的转型支持资金集中到特定部门的合作基金中,可以实现成本民主化,同时优化计划效率。

行业基金不是数百个零散的举措,而是有效地为所有公司的失业工人提供大规模的再培训、工作匹配和创业种子资金。

分担成本培育共享机会。

另类商业模式

创建与工人分享所有权和利润的替代企业结构,为在自动化中实现包容性生计提供了额外的途径。

将生成式人工智能服务于员工拥有的合作社的模型可以直接为人们带来经济收益,而不仅仅是外部股东。

这为更多人提供了可持续的生计。

总体而言,社会负有最大的责任,尽量减少生成人工智能对经济的破坏,并为流离失所的人口创造机会。 只要小心谨慎,技术进步就能提升一切。

要实现生成式人工智能的好处,同时规避风险,需要治理方面的谨慎和智慧。

但如果处理得当,生成模型可以带来显着的突破,提升人类精神。

您认为社会应该如何在促进人工智能创新与防止滥用的合理保障之间取得平衡?

用户在道德地指导这项技术方面应该扮演什么角色? 我们欢迎您在下面发表观点。