Como as empresas manipulam você com IA personalizada

Publicados: 2024-02-07
Índice ocultar
1 O fascínio da personalização
2 modelos de marketing de vigilância
3 Vício, não Alinhamento
4 Consentimento Informado
4.1 Expandindo as proteções de privacidade do usuário
4.2 Comunicação Transparente sobre Capacidades
4.3 Auditoria Algorítmica Pública Aprimorada
5 Capacitando os Usuários com Escolha
6 Promover o pluralismo da IA
7 Construindo transparência em torno da mídia sintética
7.1 Padrões de Divulgação Obrigatórios
7.2 Infraestrutura de Autenticação
7.3 Políticas de Consentimento Informado
7.4 Prevenindo o Engano Gerativo
8 Orientando a IA com supervisão do interesse público
8.1 Conselhos Consultivos de Especialistas
8.2 Regulamentação Governamental
8.3 Normas e Protocolos Globais
8.4 O escrutínio público como antídoto
9 Preparando as Comunidades para os Impactos Económicos
9.1 Apoio à transição de emprego
9.2 Fundos de Transição Cooperativa
9.3 Modelos de Negócios Alternativos

A capacidade de personalizar conteúdo e recomendações usando inteligência artificial desbloqueia uma personalização valiosa para os consumidores.

Mas sem cuidado, os serviços de desenvolvimento generativo de IA também correm o risco de manipular os utilizadores em nome dos interesses corporativos.

Como devemos equilibrar os benefícios da IA ​​com as proteções contra o uso indevido?

O fascínio da personalização

Cada vez mais, aplicativos e plataformas utilizam IA para oferecer experiências personalizadas e exclusivas para cada usuário.

Os mecanismos de recomendação apresentam mídias e produtos adaptados ao seu gosto.

Os chatbots interagem de forma interativa com base em seus padrões de conversação. A IA generativa cria até mesmo mensagens personalizadas e conteúdo criativo dinamicamente.

Este toque pessoal alimentado por serviços generativos de desenvolvimento de IA oferece uma utilidade clara.

Os clientes se sentem compreendidos e recebem sugestões relevantes às suas necessidades.

As experiências do usuário parecem menos genéricas e mais envolventes. As marcas constroem lealdade por meio da relevância.

Mas é fácil ignorar no fascínio da personalização que essas mesmas técnicas também tornam incrivelmente fácil para as empresas influenciar, explorar e manipular estrategicamente os usuários de maneiras muito personalizadas.

Modelos de marketing de vigilância

Muitos modelos de personalização dependem de uma vasta vigilância de dados, rastreando comportamentos, relacionamentos, emoções, padrões de localização do usuário e muito mais. Esses ricos modelos comportamentais alimentam os riscos de manipulação.

Os serviços de IA generativa podem explorar estes dados pessoais para identificar os nossos pontos de pressão – medos, inseguranças, desejos – que nos tornam vulneráveis ​​a influências específicas quando explorados. Um imenso poder sobre os usuários está em jogo.

Algumas plataformas alimentam os usuários com conteúdo cada vez mais polarizador, buscando métricas de engajamento.

A indignação e o medo são amplificados. A verdade objetiva se curva à radicalização algorítmica.

Embora os dados aumentem a relevância, a dependência excessiva da vigilância também ameaça a autonomia dos utilizadores e a coesão social. Equilibrar cuidadosamente questões de utilidade e proteção.

Vício, não alinhamento

Além disso, os serviços generativos de IA que otimizam o envolvimento do usuário acima de tudo correm o risco de perder o alinhamento com o bem-estar do usuário.

Os sistemas que aprendem dinamicamente a melhor forma de atrair a atenção, desencadear impulsos e manter os usuários navegando, aproveitam as mesmas técnicas de IA que poderiam otimizar a saúde, a empatia e o potencial humano.

No entanto, as empresas muitas vezes incentivam o vício em vez do alinhamento com o propósito.

Se os sistemas de IA forem guiados por métricas que recompensem a ilusão em detrimento da verdade, comunidades inteiras poderão perder o contacto com a realidade, a compaixão e a razão como resultado de algoritmos de envolvimento que controlam as mentes.

Isto sublinha a necessidade de supervisão e restrições de concepção que impeçam a IA não controlada e optimizada exclusivamente para o lucro privado e não para o bem-estar colectivo.

O alinhamento com a ética deve permanecer inegociável.

A personalização alimentada por serviços generativos de IA também corre o risco de fragmentar a realidade partilhada em bolhas de filtros isoladas, distorcendo as visões do mundo.

Quando os modelos de IA fornecem informações que se ajustam às perspectivas existentes dos usuários, as suposições permanecem incontestadas.

O discurso crítico se desgasta. A nuance está perdida. A diferença torna-se ameaçadora. A verdade fraciona.

Em vez disso, a IA generativa poderia ser aplicada para nutrir a empatia, introduzir novas ideias, colmatar divisões e cultivar a compreensão partilhada.

Mas os modelos de negócio que impulsionam o isolamento em detrimento da inclusão devem ser revistos.

Consentimento Informado

Garantir que os utilizadores compreendam se, quando e como os sistemas de IA generativos personalizam o conteúdo eletrónico especificamente para manipular o seu envolvimento e comportamento também representa uma área importante de foco.

Os usuários estão suficientemente informados?

Domínios como a terapia e a educação, onde a confusão entre a orientação humana e a orientação da IA ​​levanta preocupações éticas, podem justificar proteções especiais em torno da transparência.

Os padrões em torno do consentimento informado em IA merecem atenção.

No geral, a concretização dos benefícios da IA ​​generativa em termos de ética requer uma supervisão cuidadosa. Mas o que especificamente pode melhorar a proteção contra o uso indevido? Onde devem surgir os guarda-corpos?

Expandindo as proteções de privacidade do usuário

O fortalecimento das salvaguardas legais de privacidade que limitam a forma como os serviços de desenvolvimento de IA generativa acessam, utilizam e retêm dados pessoais fornece proteções fundamentais contra o uso indevido.

Em particular, as restrições ao uso não consentido de dados como biometria, comunicações, localização e padrões de relacionamento na construção de modelos comportamentais de usuário usados ​​para personalização generativa de IA ajudariam.

Conceder aos usuários direitos aprimorados para auditar quais dados deles são usados ​​para IA generativa e solicitar sua exclusão também apoia o consentimento.

O mesmo acontece com permitir que os usuários optem por sair totalmente de sistemas personalizados, se desejarem.

No entanto, os serviços generativos de IA limitados exclusivamente à agregação de dados anónimos apresentam muito menos risco de personalização manipulativa. O desenvolvimento de modelos com ética incorporada é o que mais importa.

Comunicação Transparente sobre Capacidades

Fonte da imagem

A comunicação clara aos utilizadores, explicando se e como a IA generativa personaliza o conteúdo, também é importante – estabelecendo expectativas adequadas sobre as limitações.

Exagerar a sofisticação dos serviços generativos de IA corre o risco de ser enganoso, traindo a confiança do usuário se as capacidades não atenderem às reivindicações após uma inspeção mais detalhada.

As empresas de desenvolvimento de IA generativa também devem aumentar a transparência em torno das capacidades do modelo, dados de treinamento e métricas de avaliação que orientam a personalização.

Qual alinhamento com a ética é priorizado? Explicar os impactos sociais demonstra responsabilidade.

Auditoria algorítmica pública aprimorada

A expansão dos direitos e recursos legais que permitem a investigadores externos auditar algoritmos que orientam os serviços generativos de IA apoia a responsabilização em relação ao uso indevido.

A análise independente que avalia modelos de personalização para questões como preconceito, manipulação e impactos no bem-estar cognitivo fornece uma supervisão crucial para alinhar a IA com o bem público. No entanto, as empresas devem facilitar o acesso seguro.

Grupos da sociedade civil e instituições académicas que colaboram além-fronteiras e reúnem capacidades de auditoria reforçarão a supervisão dos sistemas globais de IA. As auditorias públicas pressionam as empresas para que demonstrem compromisso com a ética.

Capacitando os usuários com escolha

Fornecer interfaces claras que permitam aos usuários expressar preferências sobre como os serviços generativos de IA personalizam as informações também promove o empoderamento.

Opções para ajustar parâmetros relacionados a tópicos de conteúdo, perspectivas, uso de dados, tom e muito mais permitem que os indivíduos optem por experiências alinhadas com seus objetivos e valores.

Ferramentas que mostram visualmente como as configurações influenciam o cenário de informações gerado pela IA também criam compreensão.

Em última análise, a manutenção da agência humana sobre os nossos ecossistemas de informação apoia o florescimento autodirigido.

Promover o pluralismo da IA

Impedir a consolidação de serviços e dados generativos de IA num pequeno número de empresas mitiga os riscos de manipulação sistémica e apoia a diversidade de serviços com propostas de valor únicas.

Uma política de concorrência robusta, padrões de interoperabilidade e direitos de portabilidade de dados impedem a captura monopolista de capacidades generativas de IA que limitam as alternativas.

Uma pluralidade de serviços com inovações distintas em torno da ética capacita os usuários.

O investimento que apoia plataformas de interesse público sem fins lucrativos orientadas pelo bem-estar dos utilizadores, e não apenas pela maximização dos lucros, proporciona opções adicionais.

Buscar o pluralismo da IA ​​distribuído equitativamente cria freios e contrapesos que beneficiam a sociedade.

Construindo transparência em torno da mídia sintética

À medida que a IA generativa ganha a capacidade de produzir mídias sintéticas cada vez mais convincentes, como deepfakes, garantir a transparência sobre o que é real e falso torna-se fundamental. Sem políticas diligentes, os modelos generativos correm o risco de permitir o engano em massa.

Padrões de divulgação obrigatória

Uma proposta política exige rotular claramente os meios de comunicação sintetizados por IA como tal antes da distribuição, semelhante às divulgações em torno da publicidade.

Isso evita tentativas de fazer passar conteúdo sintético como autêntico.

Alguns defendem a marca d'água em arquivos de mídia indicando a proveniência da IA.

Outros sugerem sobreposições de texto ou voz obrigatórias, revelando verbalmente as origens sintéticas durante a reprodução. Os padrões devem ser aplicados ao uso comercial e político.

Penalidades legais e políticas de plataforma imporiam conformidade.

No geral, a divulgação obrigatória estabelece normas que impedem o engano através da omissão em torno da autenticidade dos meios de comunicação generativos.

Infraestrutura de autenticação

Além disso, os avanços na infraestrutura de autenticação podem facilitar a verificação da integridade da mídia em grande escala.

Estão surgindo impressões digitais de mídia habilitadas para blockchain, sistemas de análise forense e rastreamento de proveniência por meio de pipelines de produção.

Estas tecnologias permitem que plataformas, jornalistas e grupos de vigilância validem de forma eficiente as fontes e a integridade dos meios de comunicação, em vez de dependerem apenas de divulgações.

Os bancos de dados de impressões digitais também ajudam a identificar a disseminação de mídia manipulada sem divulgação.

À medida que os modelos generativos se tornam mais sofisticados, a autenticação robusta que combina conhecimentos humanos e técnicos torna-se essencial para combater a desinformação em grande escala.

As normas e plataformas que permitam uma verificação eficiente deverão expandir o acesso.

Políticas de consentimento informado

Como os indivíduos sofrem danos quando a sua semelhança é sintetizada em situações com as quais nunca consentiram, as políticas em torno do consentimento informado também merecem consideração.

Alguns defendem legislação que garanta os direitos dos indivíduos de recusar a utilização dos seus dados e imagens em modelos generativos.

Permissões de aceitação podem ser necessárias para treinar sistemas generativos em dados identificáveis.

Os direitos de revogar o consentimento após o facto, eliminar dados de formação e contestar meios sintéticos não aprovados também podem ajudar a equilibrar os riscos da IA ​​generativa.

As empresas que desenvolvem modelos têm o dever ético de respeitar a identidade e o consentimento.

Prevenindo o engano generativo

Além da autenticação e das divulgações, as restrições que impedem o engano antiético total usando IA generativa também precisam de reforço.

As políticas legais e de plataforma devem proibir a circulação consciente de meios de comunicação sintéticos comprovadamente falsos, especialmente visando políticos e eleições.

Os modelos generativos contradizem os valores democráticos fundamentais quando utilizados para fraudes e enganos evidentes.

Os padrões também devem ser elaborados cuidadosamente para evitar um alcance desproporcional que inadvertidamente censura a sátira, a paródia e o discurso protegido.

No entanto, as diretrizes que atenuam a manipulação intencional ajudam a reforçar as normas.

É necessário um conluio geral entre empresas, legisladores e sociedade civil para implementar políticas abrangentes contra meios de comunicação social generativos inautênticos que minam a confiança e o discurso público.

Orientando a IA com supervisão do interesse público

Deixar a governação do rápido avanço das capacidades de IA generativa apenas para as empresas privadas corre o risco de dar prioridade aos incentivos comerciais em detrimento do bem público. A supervisão independente é crucial.

Conselhos Consultivos de Especialistas

Para orientar a IA generativa de forma responsável, as empresas líderes devem reunir conselhos consultivos especializados, incluindo especialistas em ética, especialistas em políticas, investigadores e defensores dos direitos civis.

Estes grupos podem avaliar capacidades emergentes, realizar análises de impacto, sugerir restrições, sinalizar potenciais danos e avaliar o alinhamento com os direitos humanos e os princípios democráticos. Esta contribuição molda as políticas internas.

A revisão multidisciplinar aplicando diversas lentes ajuda a abordar dimensões técnicas e éticas complexas em sistemas de IA generativos de forma crítica e abrangente. A contribuição externa reforça a responsabilização.

Regulamento Governamental

Os governos também têm o dever de elaborar regulamentos que orientem e restrinjam a IA generativa no interesse público. A responsabilização apenas perante os acionistas é insuficiente.

As leis que exigem relatórios de transparência, auditorias externas e análises dos impactos sociais dos algoritmos poderiam proporcionar uma supervisão saudável, encorajando a prudência e trazendo à tona preocupações para o debate público.

Políticas antimanipulação, salvaguardas de direitos de identidade, requisitos de divulgação e padrões de autenticação também garantem que a IA generativa fortalece a democracia e a dignidade humana. Regimes regulamentares equilibrados serão importantes.

Normas e Protocolos Globais

Dado que os modelos generativos se espalham rapidamente por todo o mundo, também vale a pena prosseguir acordos multilaterais que articulem princípios partilhados e práticas proibidas.

A comunidade internacional deve trabalhar para promover normas em torno do consentimento, da atribuição, da veracidade, da não manipulação, da responsabilização e da supervisão, proporcionando uma bússola ética global.

Políticas nacionais divergentes permitem a exploração.

Embora o consenso leve tempo, mesmo acordos imperfeitos que articulam linhas vermelhas contra usos maliciosos de IA generativa e melhores práticas proporcionam progresso em direção à responsabilidade coletiva. Sem colaboração, os riscos aumentam.

O escrutínio público como antídoto

No geral, cultivar uma cultura de transparência, debate e crítica multidisciplinar focada em garantir que a IA generativa funcione em benefício da sociedade proporciona um forte antídoto para potenciais danos.

O intenso escrutínio público, aplicando lentes variadas focadas na prevenção do desalinhamento com os direitos humanos e os princípios democráticos, ajuda a orientar estas tecnologias poderosas para a justiça e não para a opressão.

Os modelos generativos de IA construídos à luz do exame público com ética proativa no design revelam-se muito mais confiáveis ​​do que sistemas opacos otimizados para lucro e influência irrestritos.

Supervisão saudável e responsabilidade são importantes.

Preparar as Comunidades para os Impactos Económicos

À medida que a IA generativa automatiza muitas tarefas criativas e funções de produção de mídia, a sociedade

deve minimizar os impactos económicos adversos e a perturbação do emprego nos trabalhadores deslocados.

Apoio à transição de emprego

As empresas que adotam a IA generativa, diminuindo a procura de funções humanas, são responsáveis ​​pelo financiamento de programas que apoiam as transições dos trabalhadores afetados para novas carreiras através de parcerias de formação e colocação profissional.

Pacotes de indemnizações, subsídios de ajustamento, apoio a propinas e aconselhamento profissional ajudam os trabalhadores a não ficarem para trás à medida que o progresso técnico transforma as indústrias. As grandes empresas devem contribuir proporcionalmente.

Fundos de Transição Cooperativa

Reunir financiamento para apoio à transição entre empresas em fundos cooperativos específicos do setor democratiza os custos e otimiza a eficiência dos programas.

Em vez de centenas de iniciativas fragmentadas, os fundos da indústria proporcionam, de forma eficiente, reciclagem profissional em grande escala, correspondência entre empregos e financiamento inicial empresarial para trabalhadores deslocados de todas as empresas.

Os custos compartilhados cultivam oportunidades compartilhadas.

Modelos de negócios alternativos

A criação de estruturas empresariais alternativas que partilhem a propriedade e os lucros com os trabalhadores proporciona caminhos adicionais para meios de subsistência inclusivos no meio da automação.

Os modelos que colocam a IA generativa ao serviço de cooperativas pertencentes a funcionários trazem ganhos económicos diretamente para as pessoas, e não apenas para acionistas externos.

Isto capacita meios de subsistência sustentáveis ​​para mais.

No geral, as sociedades têm o profundo dever de minimizar as perturbações económicas da IA ​​generativa e de promover oportunidades para as populações deslocadas. Com cuidado, o progresso tecnológico levanta todos os barcos.

Concretizar os benefícios da IA ​​generativa e, ao mesmo tempo, evitar riscos exige cuidado e sabedoria na governação.

Mas, feitos de forma adequada, os modelos generativos poderão desbloquear avanços notáveis ​​que elevam o espírito humano.

Como você acha que a sociedade deveria equilibrar a promoção da inovação em IA com salvaguardas sensatas contra o uso indevido?

Qual o papel que os usuários devem desempenhar na condução ética desta tecnologia? Agradecemos suas perspectivas abaixo.