News

Jak neztratit lidskost v éře robotizace

Studium právních, morálních a etických důsledků vojenské umělé inteligence má dvě strany mince: odborníci a analytici obecně chápou rizika s tím spojená, ale neustále se vyvíjející technologie jim nedovolují zvážit všechny možné důsledky. Využití umělé inteligence ve vojenských záležitostech může vytvořit mnoho etických dilemat, která je třeba dnes řešit.

Vzhledem k široké škále potenciálních aplikací a výzev spojených s umělou inteligencí se musí vojenská oddělení a jejich dodavatelé zabývat právními a etickými otázkami v rané fázi vývoje, od konceptu umělé inteligence až po implementaci.

Tvorba systémových požadavků

Na začátku vývoje je nezbytná holistická analýza právních a etických důsledků autonomních systémů s umělou inteligencí. Analýza silných a slabých stránek vyžaduje, aby projektant porozuměl účelu systému, jeho technickým komponentům a příslušným právním a etickým normám.

Technické požadavky, jako je počítačové vidění, rozpoznávání obrazu, rozhodovací logika a autonomie vozidla, je třeba posílit o etické aspekty. To je nezbytné pro zohlednění mezinárodního humanitárního práva, válečných zákonů a příslušných předpisů. Mezinárodní humanitární právo například vyžaduje, aby byl vojenský personál odlišen od civilistů a neznámé osoby byly považovány za civilisty. Podle zákona se systém AI, který nezná stav detekované osoby, bude muset před jakýmkoli rozhodnutím poradit s operátorem. Tento příklad sám o sobě vyžaduje, aby vývojáři takového systému ve fázi návrhu předvídali mnoho kompromisů, které mohou nastat v procesu provozu AI.

Zajímavé:  Pumpování: domácí cvičení pro rozvoj síly a flexibility.

Vývojáři budou muset celý proces vývoje konzultovat s odborníky nebo dokonce s multidisciplinárními týmy. Tito odborníci nejen poukáží na právní omezení, ale také pomohou rozvíjet další klíčové prvky etické analýzy. Dva takové klíčové prvky jsou srozumitelnost systému a transparentní dokumentace.

Důraz na vysvětlitelnost systému a etickou dokumentaci

Etické požadavky na dokumentaci poskytují jednoduchou metodu, jak zachytit vysvětlitelnost systému. Vývojáři by měli zdokumentovat své systémy bez žargonu a zahrnout kritické závislosti, potenciální body selhání a mezery ve výzkumu, aby netechnické publikum pochopilo právní a etická rizika nových systémů s umělou inteligencí. Podrobný návod na mise může vývojářům pomoci identifikovat body rozhodování systému a možnosti návrhu pro uživatelská rozhraní a další komponenty. Vývojáři jsou již povinni připravit dokumentaci ke zmírnění rizik k identifikaci a řešení technických problémů nových systémů. Taková dokumentace rizik zajišťuje, že vývojáři transparentně zvažují etické problémy ve fázi návrhu.

Právní a etická dokumentace také zdůrazňuje důležitost jednotné terminologie napříč vývojovými týmy během procesu vojenské AI. Složité a autonomní systémy mohou zmást lidi, kteří se snaží posoudit etický dopad, zvláště když vývojáři používají pro stejné komponenty nekonzistentní názvy a definice. Hodnocení, která zahrnují panely civilních a vojenských odborníků, mohou řešit terminologické mezery a identifikovat oblasti potenciálního zmatku.

Řešení mezer a předsudků ve výzkumu

Včasný a častý etický přezkum může identifikovat mezery v relevantním výzkumu a upozornit na potenciál chyb, zatímco systémy jsou stále ve vývoji. Například je znám nedostatek výzkumu spolehlivosti rozpoznávání obrazu AI pro určité typy lidského chování. Další výzkum by mohl zaplnit tuto mezeru v čase a pomoci řídit vývoj budoucích systémů s podobnými technickými závislostmi.

Popis operačního prostředí, ve kterém bude systém s umělou inteligencí fungovat, často závisí na epizodických vzpomínkách na bojové operace. To může poskytnout užitečný výchozí bod pro trénování těchto systémů, ale má svá omezení. AI je jen tak dobrá, jak dobrá jsou data, ze kterých se učí. Ve většině případů soubory dat, které zachycují jemnosti a nuance konkrétních podmínek, prostě neexistují. I tam, kde existují, je často potřeba obrovské úsilí převést je do formátů vhodných pro strojové učení. Komunita AI se navíc tvrdě naučila, že i dobře navržené datové sady mohou obsahovat neočekávané předsudky, které mohou vyvolat vážné etické obavy.

Zajímavé:  Co je odpočet daně z nemovitosti a jak jej získat.

Pravidelná etická kontrola může pomoci odstranit problémy s předpojatostí AI. Taková analýza může také sloužit jako ochrana před zavedením úmyslné nebo neúmyslné zaujatosti. Právní a etičtí poradci mohou pomoci promyslet soubory dat, systémové výstupy a lidské vstupy, aby se pokusili identifikovat potenciál zkreslení již v rané fázi procesu návrhu.

Závěry

Na první pohled se aplikované právní, morální a etické úvahy zdají být pro vývojáře vojenské AI zátěží. Mohou také vyžadovat, aby IT komunita přehodnotila své standardní procesy pro vytváření AI. Včasná a častá analýza, včetně průběžného testování a prototypování, však sníží počet etických dilemat, která nepříznivě ovlivní následující fáze vývoje a zabrání nasazení inteligentních systémů pro vojenské účely.

Vojenský personál se před vstupem do armády učí etice, morálce a právu ve společnosti. A pokud žádáme inteligentní stroje, aby převzaly podobné povinnosti jako my, proč bychom k nim měli přistupovat jinak?

  • budoucnost
  • Umělá inteligence
  • strojové učení

„Jediný způsob, jak nezestárnout, je neztratit svou lidskost.“ Otázka etiky v umělé inteligenci

Sloupek Olgy Litvinets, vedoucí oddělení marketingového výzkumu ve Fairmarkit. Olga píše diplomovou práci o etice umělé inteligence v marketingu na univerzitě v Paříži-Sorbonně – její materiál zveřejňujeme pro čtenáře Cossa.

Sokrates ve 3D vykreslování – VictorVector / Shutterstock

„V tomto gigantickém technologickém stroji na rozdělování životů si člověk čím dál víc připadá jako mince vhozená do štěrbiny, proklouznutá průchody k tomu určenými a vyhozená na druhém konci v podobě důchodce či důchodce. mrtvola. Abyste se dostali ze zapomnění, můžete se buď znovu sjednotit do kmenů, jako jsou hippies nebo sektáři, nebo se pokusit dokázat se v nějaké smrtící akci, abyste se „pomstili“. Romain Gary, Bílý pes

Zajímavé:  Recenze TECNO MEGA MINI M1 - kompaktní mini-PC s bohatými schopnostmi.

Přístup k informacím se zjednodušil. Objem dat, která naše vyhledávací dotazy produkují, roste neuvěřitelnou rychlostí. S příchodem umělé inteligence jsme se naučili tato data lépe zpracovávat, vytvářet modely a předpovídat. Technologický pokrok zjednodušuje každodenní intelektuální a rutinní činnosti a my potřebujeme mít čas se přizpůsobit, abychom nezastarali a nebyli hozeni přes palubu ekosystému. Čím dále, tím více otázek vyvstává: kdo jsme, kam jdeme.

IT konference MTS True Tech Day 17. května

  • 5 tematických okruhů: Hlavní, Vývoj, AI/ML, Cloud, Věda;
  • 50 řečníků se zprávami o architektuře, cloudových platformách, NLP4Code, pravděpodobnostním programování, zabezpečení kontejnerů a další;
  • 10 hodin práce v síti;
  • Digitální zóny a digitální integrace;
  • A také večírek s hvězdou.

Reklamní. MTS PJSC. INN 7740000076. OGRN 1027700149124

Paradox ochrany osobních údajů: Beyond GDPR

61 % uživatelů umísťuje hlasového asistenta do kuchyně. Hlasoví asistenti hledají recepty, objednávají pizzu, vyprávějí příběhy. Co o nás ale ví Alexa, Siri, Cortana, Google a Alice? Náš hlas, hlasy našich dětí, tváře, historie hledání, zvyky, naši přátelé. Otázkou je, co se stane se všemi těmito daty? Není to AI, čeho bychom se měli bát, ale jak a kdo ji použije. V květnu 2018 bylo zavedeno obecné nařízení o ochraně osobních údajů (GDPR). Jedná se o komplexní dokument, jehož účelem je zaručit důvěrnost a uživatelskou kontrolu nad jeho osobními údaji. Předpisy na ochranu dat nutí weby k větší transparentnosti: osobní údaje musí být šifrované a weby musí dát každému uživateli možnost smazat svůj účet, ale uživatel musí také výslovně souhlasit se shromažďováním dat. Ale i přes nepopiratelný pokrok se zaváděním tohoto nařízení je etický aspekt hromadného používání dat založen na paradoxu soukromí: i bez záměrné inzerování soukromí na internetu jsou všechna klíčová slova našich vyhledávacích dotazů, obsah našich mobilní telefon a počítač, stejně jako telefonní hovory a e-mailová data lze sledovat a dešifrovat. Ve Spojených státech se etika a politika dostaly do otevřeného konfliktu, který proti sobě postavil na jedné straně odpovědné občany, kteří odhalili zneužívání zpravodajských služeb ohledně soukromí, a na druhé straně tytéž demokratické vlády. Nejde jen o drobné technické nedostatky algoritmů, které vznikly spíše z nepozornosti a neschopnosti předvídat všechna rozhodnutí umělé inteligence, která způsobují morálně a společensky nepřijatelné chování. Jako když Google označil obrázky a identifikoval Afroameričany jako gorily, nebo když byl Microsoftův chatbot odstraněn poté, co začal vytvářet rasistické tweety. Tyto případy jsou spíše o lidském faktoru a dají se poměrně snadno napravit.

Zajímavé:  Recenze AirPods: chytrá bezdrátová sluchátka od Apple.

Sociální hodnocení

Na druhou stranu problémy jako Facebook a jeho Fake News a manipulace s veřejným míněním se tak snadno neřeší. Základem firemního obchodního modelu není totální dohled, ale vydělávání peněz. Nemluvě o tom, že se legislativa evropských zemí výrazně zpřísnila. Skutečnou politickou a etickou komplikací je, že například čínská vláda používá AI k vytváření sociálních žebříčků. Veškeré informace o uživateli na internetu: jeho chování, jeho nákupy, jeho kreditní historie, jeho pohyby, jeho sociální prostředí – vše je sloučeno do systému a přiděluje body každému člověku. To už jsme viděli v jednom z dílů Black Mirror. Úplný dohled vzbuzuje více starostí než cokoli, před čím nás má chránit. To vše zpochybňuje demokracii, soukromí, bezpečnost a dokonce i podstatu lidskosti. Jaká je vlastně role lidí v technologickém ekosystému?

Co dělá člověka člověkem?

Nyní přejděme k filozofii. Podle Hegela mají lidé stejně jako zvířata přirozené potřeby a touhy, jako je jídlo, pití, přístřeší a především pud sebezáchovy. Ale člověk se liší od mnoha zvířat, protože chce získat uznání. Tato potřeba uznání podněcuje člověka k tomu, aby produkoval ještě více zboží a služeb, což přispívá k rozvoji technologií, a to nás přivedlo ke konzumu, který vůbec nenaplňuje lidské potřeby, ale naopak jen zhoršuje situace. Přání přiznání vedlo k rozvoji sociálních médií, což jako vedlejší efekt vedlo ke globálnímu shromažďování osobních informací. Podle Lewise Mumforda je člověk tím, kdo vyrábí nástroje. Ale vyrábí je ještě? Nebo si produkty vyrábějí sami? Technologie ve skutečnosti již není prostředkem, ale stala se cílem sama o sobě. Například elektrický holicí strojek jsme vynalezli, abychom ušetřili čas, takže můžeme strávit čas vytvářením účinnějšího holicího strojku, abychom ušetřili ještě více času na vytvoření ještě rychlejšího holicího strojku. Žijeme v technologii a pro technologii. Technologie jako médium lidské existence z něj dělá nástroj vlastního rozvoje. Günther Anders kdysi bravurně obhajoval koncept lidské zastaralosti a ukázal, jak se ocitáme na okraji technického procesu: člověk se stává jakýmsi přívěskem všudypřítomného reklamního fenoménu ve světě masové spotřeby. Stroje vyrábějí stroje v technickém letu, který Heidegger kdysi charakterizoval jako „test bez tématu“. Myšlenka Francise Fukuyamy o konci dějin a posledním člověku zdůrazňuje nebezpečí prosperující éry konzumerismu způsobeného triumfem technologie, která může vést ke zničení lidstva s rozvojem biotechnologie. Bez jakéhokoli napomáhání rozvoji a zlepšování lidské přirozenosti takový nekontrolovaný pokrok s největší pravděpodobností povede ke vzniku děsivé „post-lidskosti“.

Zajímavé:  Kombucha: jak vyrobit nápoj z kombuchy, která je zpět v trendu.

Jak se z našich dat stal produkt

Technologie umělé inteligence v marketingu a reklamě se stávají stále více všudypřítomnými a neviditelnými a neustále zmenšují prostor vnímané svobody volby pro každého jednotlivého spotřebitele. Není to strašlivý paradox našeho světa, který stále více investuje do AI? Moderní společnosti jsou skutečně postaveny na hodnotě jednotlivce, schopného svobodného rozhodování. Obecně se tato schopnost nazývá „autonomie“ jednotlivce a je považována za základní zdroj autonomie společností prostřednictvím demokratických politických institucí. Celá dynamika našich moderních společností však směřuje ke zvýšení kontroly nad lidmi pomocí umělé inteligence, přičemž zcela popírá hodnotu autonomie. Většina technologií, které zpochybňují osobní svobodu, je vyvíjena společnostmi, jejichž obchodní model je založen na shromažďování a zpracovávání osobních údajů uživatelů. Samotný koncept zboží také zcela transformováno: už to není produkt nebo služba, ale je data. My sami, naše osobní zájmy, jsme se stali zbožím, protože když je vše zdarma, zbožím je uživatel.

Jaký je vztah mezi umělou inteligencí, marketingem a filozofií?

Filozofové nám jistě pomáhají klást správné otázky. Technologie umělé inteligence v marketingu a reklamě se musí vyvíjet v souladu s etickými a společenskými principy, a to nejen ve své vlastní dynamice. V Evropě se o tom mluví často. Na konferenci Marketing Remix v Paříži v roce 2018 byla otázka společenské odpovědnosti nastolena mnohokrát. Firmy si stále více uvědomují důležitost udržitelný rozvoj a snažit se vytvářet hodnotu. Isabelle Galli, zakladatelka francouzského Centra pro umělou inteligenci, se zeptala: „Můžeme umělé inteligenci věřit? během konference Convergence AI. I během Dne diplomacie ministerstvo Evropy a zahraničních věcí při diskusi francouzského předsednictví G7 zmínilo, že umělá inteligence potřebuje vypracovat strategie pro svůj rozvoj. Negativní důsledky technologického a vědeckého pokroku nás nutí přemýšlet o osobní a společenské odpovědnosti. To vše samozřejmě přináší průmyslová rizika, zejména v oblasti využívání informačních technologií, rozvoje internetu a zajišťování informační bezpečnosti. Koncept udržitelného rozvoje, inspirovaný filozofií Hanse Jonase a popularizovaný Braudtlandovou zprávou Our Common Future v roce 1987, je standardem etiky. Základní kritérium je jednoduché: rozvoj musí odpovídat potřebám současnosti, aniž by ohrozil svobodu budoucích generací. Náš technologický pokrok by proto neměl vážně podkopávat schopnost volit nebo zpochybňovat přežití těch, kterým odkážeme náš svět. Jsou společnosti, tech giganti podílející se na růstu AI, schopni tento princip integrovat? Jaká rozhodnutí činí klíčoví hráči v této oblasti? Google, Apple, Facebook, Microsoft již najímají filozofy a etiky na vývoj interních procesů. Ale navzdory všem těmto snahám nemusí řešení pocházet pouze z vnitřní etické dynamiky účastníků AI. Integrace etických principů by měla být regulována národními nebo mezinárodními organizacemi. Na etické regulaci umělé inteligence by se měly aktivně podílet veřejné právní instituce.

Zajímavé:  Jak namočit semena před výsadbou a proč to udělat.

Deklarace o etice umělé inteligence

V prosinci 2018 byla v Montrealu podepsána Deklarace o odpovědné umělé inteligenci. Filosofové se sešli v Kanadě, aby vyvinuli strategii pro rozvoj umělé inteligence.

Deklarace obsahuje 10 základních etických principů. 1. Princip pohody AI by měla být používána pouze pro dobro. 2. Princip respektování autonomie Umělá inteligence by měla zvýšit kontrolu lidí nad jejich životy a podporovat respekt k autonomii lidí. 3. Zásada důvěrnosti a ochrany soukromí Osobní život musí být chráněn systémy pro sběr a archivaci osobních údajů. Lidé by měli mít kontrolu nad svými daty a možnost je smazat. Připomíná to principy nařízení o ochraně osobních údajů GDPR. 4. Princip solidarity Systémy umělé inteligence by měly být vyvinuty ke zlepšení vztahů mezi lidmi a lidmi, včetně budoucích generací. 5. Princip demokratické participace Systémy umělé inteligence musí být srozumitelné a transparentní a přístupné pro kontrolu nebo otevřenou diskusi. 6. Princip spravedlnosti Umělá inteligence by měla přispívat k vytváření spravedlivé a rovné společnosti, která nikdy nevytváří sociální, sexuální, etnickou, kulturní a náboženskou diskriminaci. 7. Princip diverzity Umělá inteligence by nikdy neměla být používána k omezování svobody projevu a svobody projevu. 8. Zásada opatrnosti Všichni profesionálové zapojení do vývoje AI musí udělat vše pro to, aby se vyhnuli nepříznivým následkům. 9. Princip odpovědnosti Všichni lidé mohou a měli by nést odpovědnost za rozhodnutí AI. Všechna morální rozhodnutí by měli dělat lidé a nikdy je nenechávat na algoritmech. 10. Princip udržitelného rozvoje Tento princip pokračuje v myšlence udržitelného rozvoje. AI, stejně jako všechny ostatní technologie, má komplexní vztah k ekologii. Princip udržitelného rozvoje by měl zajistit dosažení maximální energetické účinnosti minimalizací dopadu na náš ekosystém.

Zajímavé:  Kdy a jak transplantovat růže na nové místo.

Společnou prací mohou filozofové, programátoři, datoví inženýři a marketéři vytvářet podmínky pro vytváření hodnot a rozvoj průmyslových odvětví při dodržení zásady udržitelného rozvoje. Ale to není vše. Pro nás je jediným způsobem, jak se vyhnout zastarávání, převzít odpovědnost, dojít k uvědomění, abychom neztratili lidskost. *** Francouzská verze materiálu byla publikována na Viuz.com.

  • Francis Fukuyama: „Konec dějin a poslední člověk“
  • Günther Anders: „Zastaralost člověka“
  • Lewis Mumford: „Mýtus o stroji“
  • Hans Jonas: „Princip odpovědnosti“
  • Umělá inteligence v marketingu: Začátek nové éry
  • Umělá inteligence je kouzlo, které osvobodí kreativce od rutiny
  • Jak se přestat bát a milovat AI
  • IT specialista, který předpověděl epidemii padělků, nyní předpovídá informační apokalypsu
  • Umělá inteligence 2018: zachraňuje životy, ale bere pracovní místa
  • Lidskosti v nás bude stále méně

Redakční názor nemusí odrážet názory autora. Pošlete nám své články na 42@cossa.ru. A naše požadavky na ně jsou zde.

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Back to top button