Jak firmy manipulują Tobą za pomocą spersonalizowanej sztucznej inteligencji

Opublikowany: 2024-02-07
Spis treści ukryj
1 Urok personalizacji
2 Modele marketingu nadzoru
3 Uzależnienie, a nie dostosowanie
4 Świadoma zgoda
4.1 Rozszerzanie Ochrony prywatności Użytkowników
4.2 Przejrzysta komunikacja na temat możliwości
4.3 Udoskonalony publiczny audyt algorytmiczny
5 Zapewnienie użytkownikom możliwości wyboru
6 Wspieranie pluralizmu AI
7 Budowanie przejrzystości wokół mediów syntetycznych
7.1 Obowiązkowe standardy ujawniania informacji
7.2 Infrastruktura uwierzytelniania
7.3 Polityka świadomej zgody
7.4 Zapobieganie oszustwom generatywnym
8 Kierowanie sztuczną inteligencją pod nadzorem interesu publicznego
8.1 Eksperckie rady doradcze
8.2 Rozporządzenie rządowe
8.3 Globalne normy i protokoły
8.4 Kontrola społeczna jako antidotum
9 Przygotowanie społeczności na skutki gospodarcze
9.1 Wsparcie przy zmianie pracy
9.2 Spółdzielcze Fundusze Przejściowe
9.3 Alternatywne modele biznesowe

Możliwość dostosowania treści i rekomendacji za pomocą sztucznej inteligencji umożliwia cenną personalizację dla konsumentów.

Jednak bez ostrożności usługi rozwoju generatywnej sztucznej inteligencji stwarzają również ryzyko manipulowania użytkownikami w imieniu interesów korporacji.

Jak powinniśmy zrównoważyć korzyści AI z ochroną przed nadużyciami?

Urok personalizacji

Coraz częściej aplikacje i platformy wykorzystują sztuczną inteligencję, aby zapewnić spersonalizowane doświadczenia, unikalne dla każdego użytkownika.

Silniki rekomendacji mediów powierzchniowych i produktów dostosowanych do Twojego gustu.

Chatboty angażują się interaktywnie w oparciu o Twoje wzorce konwersacji. Generatywna sztuczna inteligencja tworzy nawet spersonalizowane wiadomości i kreatywne treści na bieżąco.

Ten osobisty charakter wspierany przez generatywne usługi rozwoju AI oferuje wyraźną użyteczność.

Klienci czują się rozumiani i otrzymują sugestie adekwatne do ich potrzeb.

Doświadczenia użytkowników wydają się mniej ogólne i bardziej wciągające. Marki budują lojalność poprzez trafność.

Jednak w uroku personalizacji łatwo przeoczyć fakt, że te same techniki sprawiają, że firmom niezwykle łatwo jest strategicznie wpływać na użytkowników, wykorzystywać ich i manipulować nimi w bardzo spersonalizowany sposób.

Modele marketingu nadzoru

Wiele modeli personalizacji opiera się na rozległym nadzorze danych, śledzeniu zachowań użytkowników, relacji, emocji, wzorców lokalizacji i nie tylko. Te bogate modele behawioralne zwiększają ryzyko manipulacji.

Usługi generatywnej sztucznej inteligencji mogą eksplorować te dane osobowe, aby wskazać nasze punkty nacisku – lęki, niepewność, pragnienia – które narażają nas na ukierunkowany wpływ w przypadku wykorzystania. W grę wchodzi ogromna władza nad użytkownikami.

Niektóre platformy dostarczają użytkownikom coraz bardziej polaryzujące wskaźniki zaangażowania w zakresie treści.

Wzmaga się oburzenie i strach. Obiektywna prawda ugina się pod algorytmiczną radykalizacją.

Chociaż dane zwiększają znaczenie, nadmierne poleganie na nadzorze zagraża również autonomii użytkowników i spójności społecznej. Przemyślane zrównoważenie kwestii użyteczności i ochrony.

Uzależnienie, a nie dostosowanie

Ponadto generatywne usługi AI optymalizujące przede wszystkim zaangażowanie użytkowników ryzykują utratę zgodności z dobrostanem użytkowników.

Systemy dynamicznie uczące się, jak najlepiej przyciągnąć uwagę, wywołać impulsy i zachęcić użytkowników do przewijania, wykorzystują te same techniki sztucznej inteligencji, które mogą zoptymalizować zdrowie, empatię i potencjał ludzki.

Jednak korporacje często zachęcają do uzależnienia zamiast dostosowania się do celu.

Jeśli systemy sztucznej inteligencji będą kierować się wskaźnikami, które nagradzają iluzję zamiast prawdy, całe społeczności mogą stracić kontakt z rzeczywistością, współczucie i rozum w wyniku kontrolujących umysły algorytmów zaangażowania.

Podkreśla to potrzebę nadzoru i ograniczeń projektowych uniemożliwiających niekontrolowaną sztuczną inteligencję zoptymalizowaną wyłącznie pod kątem prywatnego zysku, a nie zbiorowego dobra.

Dostosowanie do zasad etyki nie może podlegać negocjacjom.

Personalizacja oparta na generatywnych usługach sztucznej inteligencji stwarza również ryzyko fragmentacji wspólnej rzeczywistości na izolowane bańki filtrujące zniekształcające światopogląd.

Kiedy modele sztucznej inteligencji dostarczają informacji pasujących do istniejących perspektyw użytkowników, założenia pozostają niekwestionowane.

Dyskurs krytyczny ulega erozji. Niuanse zostały utracone. Różnica staje się groźna. Prawda frakcjonuje.

Zamiast tego można zastosować generatywną sztuczną inteligencję do rozwijania empatii, wprowadzania nowych pomysłów, łagodzenia podziałów i kultywowania wspólnego zrozumienia.

Należy jednak ponownie przyjrzeć się modelom biznesowym stawiającym izolację nad włączeniem.

Świadoma zgoda

Ważnym obszarem zainteresowania jest również zapewnienie użytkownikom zrozumienia, czy, kiedy i w jaki sposób generatywne systemy sztucznej inteligencji personalizują treści elektroniczne specjalnie w celu manipulowania ich zaangażowaniem i zachowaniem.

Czy użytkownicy są wystarczająco poinformowani?

Dziedziny takie jak terapia i edukacja, w których zacieranie się granicy między wytycznymi człowieka a wytycznymi dotyczącymi sztucznej inteligencji budzi wątpliwości etyczne, mogą wymagać specjalnej ochrony w zakresie przejrzystości.

Na uwagę zasługują standardy dotyczące świadomej zgody w sztucznej inteligencji.

Ogólnie rzecz biorąc, uświadomienie sobie korzyści, jakie generatywna sztuczna inteligencja ma w etyce, wymaga uważnego nadzoru. Ale co konkretnie może poprawić ochronę przed nadużyciami? Gdzie powinny pojawić się poręcze?

Rozszerzanie ochrony prywatności użytkowników

Wzmocnienie prawnych zabezpieczeń prywatności ograniczających sposób, w jaki usługi rozwoju generatywnej sztucznej inteligencji uzyskują dostęp do danych osobowych, wykorzystują je i zatrzymują, zapewnia podstawową ochronę przed nadużyciami.

W szczególności pomocne byłyby ograniczenia dotyczące niewykorzystywania danych bez zgody, takich jak dane biometryczne, komunikacja, lokalizacja i wzorce relacji, w budowaniu modeli behawioralnych użytkowników wykorzystywanych do generatywnej personalizacji sztucznej inteligencji.

Nadanie użytkownikom większych praw w zakresie kontrolowania, jakie ich dane są wykorzystywane na potrzeby generatywnej sztucznej inteligencji oraz żądanie ich usunięcia również wspiera zgodę.

Podobnie jest z umożliwieniem użytkownikom całkowitej rezygnacji z systemów spersonalizowanych, jeśli zajdzie taka potrzeba.

Jednak usługi generatywne AI ograniczające się wyłącznie do agregowania anonimowych danych stwarzają znacznie mniejsze ryzyko personalizacji manipulacyjnej. Najważniejsze jest opracowywanie modeli z wbudowaną etyką.

Przejrzysta komunikacja na temat możliwości

Źródło obrazu

Ważna jest również jasna komunikacja z użytkownikami wyjaśniająca, czy i w jaki sposób generatywna sztuczna inteligencja personalizuje treści – ustalając odpowiednie oczekiwania co do ograniczeń.

Przecenianie wyrafinowania generatywnych usług sztucznej inteligencji grozi oszustwem i zdradzeniem zaufania użytkowników, jeśli możliwości nie spełniają oczekiwań po bliższej inspekcji.

Firmy zajmujące się rozwojem generatywnej sztucznej inteligencji powinny również zwiększyć przejrzystość możliwości modeli, danych szkoleniowych i wskaźników oceny kierujących personalizacją.

Jakie zgodność z etyką jest priorytetowa? Wyjaśnianie skutków społecznych pokazuje odpowiedzialność.

Ulepszony publiczny audyt algorytmiczny

Rozszerzanie praw i zasobów umożliwiających zewnętrznym badaczom kontrolowanie algorytmów kierujących generatywnymi usługami AI wspiera odpowiedzialność za niewłaściwe wykorzystanie.

Niezależna analiza oceniająca modele personalizacji pod kątem takich kwestii, jak uprzedzenia, manipulacje i wpływ na dobrostan poznawczy, zapewnia kluczowy nadzór nad dostosowaniem sztucznej inteligencji do dobra publicznego. Jednak firmy muszą ułatwiać bezpieczny dostęp.

Grupy społeczeństwa obywatelskiego i instytucje akademickie współpracujące ponad granicami i łączące możliwości w zakresie audytu wzmocnią nadzór nad globalnymi systemami sztucznej inteligencji. Audyty publiczne wywierają presję na przedsiębiorstwa, aby wykazywały zaangażowanie w zasady etyki.

Zapewnienie użytkownikom możliwości wyboru

Zapewnienie przejrzystych interfejsów umożliwiających użytkownikom wyrażanie preferencji dotyczących sposobu, w jaki generatywne usługi AI personalizują informacje, również zwiększa wzmocnienie pozycji.

Opcje dostosowywania parametrów związanych z tematyką treści, perspektywami, wykorzystaniem danych, tonem i nie tylko pozwalają użytkownikom wyrazić zgodę na doświadczenia zgodne z ich celami i wartościami.

Narzędzia wizualnie pokazujące, jak ustawienia wpływają na krajobraz informacyjny generowany przez sztuczną inteligencję, również budują zrozumienie.

Ostatecznie utrzymanie ludzkiej sprawczości w naszych ekosystemach informacyjnych wspiera samokierowany rozwój.

Wspieranie pluralizmu sztucznej inteligencji

Zapobieganie konsolidacji generatywnych usług i danych w ramach niewielkiej liczby firm ogranicza ryzyko manipulacji systemowych i wspiera różnorodność usług o unikalnych propozycjach wartości.

Solidna polityka konkurencji, standardy interoperacyjności i prawa do przenoszenia danych zapobiegają monopolistycznemu przechwytywaniu generatywnych możliwości sztucznej inteligencji ograniczających alternatywy.

Różnorodność usług charakteryzujących się wyraźnymi innowacjami dotyczącymi etyki wzmacnia pozycję użytkowników.

Inwestycje wspierające platformy interesu publicznego non-profit, kierujące się dobrem użytkowników, a nie samą maksymalizacją zysków, zapewniają dodatkowy wybór.

Dążenie do pluralizmu sztucznej inteligencji rozłożonego w sposób sprawiedliwy zapewnia kontrolę i równowagę przynoszącą korzyści społeczeństwu.

Budowanie przejrzystości wokół mediów syntetycznych

W miarę jak generatywna sztuczna inteligencja zyskuje zdolność do tworzenia coraz bardziej przekonujących mediów syntetycznych, takich jak deepfakes, zapewnienie przejrzystości w kwestii tego, co prawdziwe, a co fałszywe, staje się krytyczne. Bez sumiennej polityki modele generatywne stwarzają ryzyko umożliwienia masowego oszustwa.

Obowiązkowe standardy ujawniania informacji

Jedna z propozycji politycznych wymaga wyraźnego oznakowania mediów syntetyzowanych przez sztuczną inteligencję jako takich przed dystrybucją, podobnie jak w przypadku ujawniania informacji na temat reklam.

Zapobiega to próbom przedstawiania treści syntetycznych jako autentycznych.

Niektórzy opowiadają się za znakowaniem wodnym plików multimedialnych wskazujących pochodzenie AI.

Inni sugerują wymagane nakładki tekstowe lub głosowe, które werbalnie ujawniają syntetyczne pochodzenie podczas odtwarzania. Normy powinny mieć zastosowanie do zastosowań komercyjnych i politycznych.

Kary prawne i zasady platformy egzekwowałyby zgodność.

Ogólnie rzecz biorąc, obowiązkowe ujawnianie ustanawia normy zapobiegające oszustwom poprzez pomijanie generatywnej autentyczności mediów.

Infrastruktura uwierzytelniania

Ponadto postęp w infrastrukturze uwierzytelniania może ułatwić weryfikację integralności nośnika na dużą skalę.

Pojawiają się odciski palców mediów obsługujące technologię Blockchain, systemy analizy kryminalistycznej i śledzenie pochodzenia w rurociągach produkcyjnych.

Technologie te umożliwiają platformom, dziennikarzom i grupom nadzorującym skuteczną weryfikację źródeł mediów i ich integralności, zamiast polegać wyłącznie na ujawnieniach.

Bazy danych odcisków palców pomagają także identyfikować rozpowszechnianie zmanipulowanych mediów bez ujawniania informacji.

W miarę jak modele generatywne stają się coraz bardziej wyrafinowane, niezawodne uwierzytelnianie łączące wiedzę ludzką i techniczną staje się niezbędne w zwalczaniu dezinformacji na dużą skalę.

Standardy i platformy umożliwiające skuteczną weryfikację powinny poszerzać dostęp.

Polityka świadomej zgody

Ponieważ jednostki ponoszą krzywdę, gdy ich podobieństwo zostaje zsyntetyzowane w sytuacje, na które nigdy nie wyraziły zgody, należy rozważyć zasady dotyczące świadomej zgody.

Niektórzy opowiadają się za ustawodawstwem zabezpieczającym prawa osób fizycznych do odmowy wykorzystania ich danych i podobieństwa w modelach generatywnych.

Do szkolenia systemów generatywnych na podstawie danych umożliwiających identyfikację może być wymagana zgoda na uczestnictwo.

Prawa do wycofania zgody po fakcie, usunięcia danych szkoleniowych i zakwestionowania niezatwierdzonych mediów syntetycznych mogą również pomóc zrównoważyć ryzyko związane z generatywną sztuczną inteligencją.

Firmy opracowujące modele mają etyczny obowiązek szanowania tożsamości i zgody.

Zapobieganie oszustwom generatywnym

Oprócz uwierzytelniania i ujawniania, wzmocnienia wymagają również ograniczenia zapobiegające jawnie nieetycznemu oszustwu z wykorzystaniem generatywnej sztucznej inteligencji.

Polityka prawna i dotycząca platform powinna zabraniać świadomego rozpowszechniania fałszywych mediów syntetycznych, w szczególności ukierunkowanych na polityków i wybory.

Modele generatywne są sprzeczne z podstawowymi wartościami demokratycznymi, gdy są wykorzystywane do jawnego oszustwa i oszustwa.

Normy należy również opracowywać ostrożnie, aby uniknąć nieproporcjonalnego zasięgu, który w sposób niezamierzony cenzuruje satyrę, parodię i mowę chronioną.

Jednakże wytyczne łagodzące zamierzone manipulacje pomagają wzmacniać normy.

Aby wdrożyć kompleksową politykę przeciwko nieautentycznym mediom generatywnym, podważającym zaufanie publiczne i dyskurs publiczny, wymagana jest ogólna zmowa przedsiębiorstw, prawodawców i społeczeństwa obywatelskiego.

Kierowanie sztuczną inteligencją pod nadzorem interesu publicznego

Pozostawienie zarządzania szybko rozwijającymi się możliwościami generatywnej sztucznej inteligencji wyłącznie przedsiębiorstwom prywatnym grozi przedłożeniem zachęt komercyjnych nad dobro publiczne. Niezależny nadzór jest kluczowy.

Eksperckie Rady Doradcze

Aby w sposób odpowiedzialny kierować generatywną sztuczną inteligencją, wiodące firmy powinny powołać eksperckie rady doradcze, w skład których wchodzą etycy, eksperci ds. polityki, badacze i obrońcy praw obywatelskich.

Grupy te mogą oceniać pojawiające się możliwości, przeprowadzać przeglądy wpływu, sugerować ograniczenia, sygnalizować potencjalne szkody i oceniać zgodność z prawami człowieka i zasadami demokracji. Ten wkład kształtuje politykę wewnętrzną.

Multidyscyplinarny przegląd z zastosowaniem różnych perspektyw pomaga krytycznie i kompleksowo zająć się złożonymi wymiarami technicznymi i etycznymi w generatywnych systemach AI. Wkład zewnętrzny zwiększa odpowiedzialność.

Regulacje rządowe

Rządy mają również obowiązki w zakresie tworzenia przepisów regulujących i ograniczających generatywną sztuczną inteligencję w interesie publicznym. Odpowiedzialność wyłącznie przed akcjonariuszami jest niewystarczająca.

Przepisy wymagające sporządzania sprawozdań dotyczących przejrzystości, audytów zewnętrznych i przeglądów skutków społecznych algorytmów mogłyby zapewnić zdrowy nadzór, zachęcając do ostrożności i ujawniając obawy w debacie publicznej.

Polityki przeciwdziałające manipulacji, zabezpieczenia praw tożsamości, wymogi dotyczące ujawniania informacji i standardy uwierzytelniania również zapewniają, że generatywna sztuczna inteligencja wzmacnia demokrację i godność ludzką. Ważne będą zrównoważone systemy regulacyjne.

Globalne normy i protokoły

Ponieważ modele generatywne szybko rozprzestrzeniają się na całym świecie, warto także realizować wielostronne porozumienia wyrażające wspólne zasady i zabronione praktyki.

Społeczność międzynarodowa powinna pracować nad wspieraniem norm dotyczących zgody, przypisania, prawdomówności, niemanipulacji, odpowiedzialności i nadzoru, zapewniając globalny kompas etyczny.

Rozbieżna polityka narodowa umożliwia wyzysk.

Chociaż konsensus wymaga czasu, nawet niedoskonałe porozumienia określające czerwone granice przeciwko złośliwemu wykorzystaniu generatywnej sztucznej inteligencji i najlepszych praktyk zapewniają postęp w kierunku odpowiedzialności zbiorowej. Bez współpracy ryzyko rośnie.

Kontrola publiczna jako antidotum

Ogólnie rzecz biorąc, kultywowanie kultury przejrzystości, debaty i multidyscyplinarnej krytyki skupionej na zapewnieniu, że generatywna sztuczna inteligencja będzie działać z korzyścią dla społeczeństwa, stanowi silne antidotum na potencjalne szkody.

Wnikliwa kontrola społeczna, wykorzystująca różne perspektywy, skupiająca się na zapobieganiu niezgodności z prawami człowieka i zasadami demokracji, pomaga skierować te potężne technologie w stronę sprawiedliwości, a nie ucisku.

Modele generatywnej sztucznej inteligencji zbudowane w świetle badań publicznych przy zastosowaniu proaktywnej etyki w projektowaniu okazują się znacznie bardziej godne zaufania niż nieprzejrzyste systemy zoptymalizowane pod kątem niekontrolowanych zysków i wpływów.

Liczy się zdrowy nadzór i odpowiedzialność.

Przygotowanie społeczności na skutki gospodarcze

Ponieważ generatywna sztuczna inteligencja automatyzuje wiele zadań twórczych i ról związanych z produkcją mediów, społeczeństwo

muszą minimalizować niekorzystne skutki gospodarcze i zakłócenia w zatrudnieniu zwolnionych pracowników.

Wsparcie w zmianie pracy

Firmy wdrażające generatywną sztuczną inteligencję zmniejszającą zapotrzebowanie na role ludzkie ponoszą odpowiedzialność za programy finansowania pomagające dotkniętym pracownikom w przejściu do nowej kariery poprzez partnerstwa w zakresie szkoleń i pośrednictwa pracy.

Odprawy, stypendia dostosowawcze, wsparcie w zakresie czesnego i doradztwo zawodowe pomagają pracownikom nie pozostać w tyle w obliczu postępu technicznego zmieniającego branże. Duże firmy powinny wnosić wkład proporcjonalny.

Spółdzielcze Fundusze Przejściowe

Łączenie funduszy na wsparcie przejścia między przedsiębiorstwami w spółdzielcze fundusze sektorowe demokratyzuje koszty, optymalizując jednocześnie efektywność programu.

Zamiast setek fragmentarycznych inicjatyw fundusze branżowe skutecznie zapewniają przekwalifikowanie na dużą skalę, pośrednictwo pracy i finansowanie zalążków przedsiębiorczości dla zwolnionych pracowników wszystkich firm.

Wspólne koszty kultywują wspólne możliwości.

Alternatywne modele biznesowe

Tworzenie alternatywnych struktur korporacyjnych dzielących własność i zyski z pracownikami zapewnia dodatkowe ścieżki do włączających źródeł utrzymania w warunkach automatyzacji.

Modele wykorzystujące generatywną sztuczną inteligencję w służbie spółdzielni należących do pracowników przynoszą korzyści ekonomiczne bezpośrednio ludziom, a nie tylko zewnętrznym udziałowcom.

Zapewnia to zrównoważone źródła utrzymania na więcej.

Ogólnie rzecz biorąc, społeczeństwa mają głęboki obowiązek minimalizowania zakłóceń gospodarczych powodowanych przez generatywną sztuczną inteligencję i zapewniania możliwości dla przesiedlonej ludności. Ostrożnie postęp technologiczny podnosi wszystkie łodzie.

Uświadomienie sobie korzyści generatywnej sztucznej inteligencji przy jednoczesnym zapobieganiu ryzyku wymaga ostrożności i mądrości w zarządzaniu.

Jednak prawidłowo wykonane modele generatywne mogą odblokować niezwykłe przełomy podnoszące na duchu ludzkiego ducha.

Jak, Twoim zdaniem, społeczeństwo powinno zrównoważyć wspieranie innowacji w zakresie sztucznej inteligencji z rozsądnymi zabezpieczeniami przed nadużyciami?

Jaką rolę powinni odgrywać użytkownicy w kierowaniu tą technologią w sposób etyczny? Zachęcamy do zapoznania się z poniższymi punktami widzenia.