Różne

Roboethics: The Human Ethics Applied To Robots

Roboethics: The Human Ethics Applied To Robots


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

w Lata czterdziesteAmerykański pisarz Isaac Asimov opracował Trzy Prawa Robotyki, argumentując, że inteligentne roboty powinny być programowane w taki sposób, że w obliczu konfliktu powinny znieść i przestrzegać następujących trzech praw:

  • Robot nie może zranić człowieka lub, poprzez bezczynność, pozwolić mu na zranienie

  • Robot musi wykonywać rozkazy wydawane mu przez ludzi, chyba że takie rozkazy byłyby sprzeczne z pierwszym prawem

  • Robot musi chronić swoje istnienie, o ile taka ochrona nie jest sprzeczna z pierwszą lub drugą zasadą

Prawa robotyki Isaaca Asimova zostały po raz pierwszy wprowadzone w krótkiej opowieści science fiction Biegać dookoła, (PDF) opublikowane w wydaniu Astounding Science Fiction z marca 1942 roku.

Prawie 80 lat później, trzy prawa robotyki Asimova przedstawiają robotom więcej problemów i konfliktów niż rozwiązują.

Robotyści, filozofowie i inżynierowie są świadkami trwającej debaty na temat etyki maszyn. Etyka maszynowa lub roboetyka to praktyczna propozycja tego, jak jednocześnie konstruować i zapewniać etyczne sankcje dla robotów.

Kto lub co zostanie pociągnięte do odpowiedzialności, gdy lub jeśli system autonomiczny źle funkcjonuje lub szkodzi ludziom?

Obecnie naukowcy podążają za trendem, który ma na celu promowanie projektowania i wdrażania sztucznych systemów z osadzonymi moralnie akceptowalnymi zachowaniami.

O etyce i roboetyce

Etyka jest gałęzią filozofii, która bada ludzkie postępowanie, oceny moralne, pojęcia dobra i zła, dobra i zła, sprawiedliwości i niesprawiedliwości. Pojęcie roboetyki rodzi fundamentalną refleksję etyczną, która wiąże się z konkretnymi zagadnieniami i dylematami moralnymi, jakie rodzi rozwój aplikacji robotycznych.

Roboetyka - zwana również etyką maszynową - dotyczy kodeksu postępowania, który inżynierowie robotów muszą wdrożyć w sztucznej inteligencji robota. Poprzez tego rodzaju sztuczną etykę robotyki muszą zagwarantować, że systemy autonomiczne będą w stanie wykazywać etycznie akceptowalne zachowanie w sytuacjach, gdy roboty lub inne systemy autonomiczne, takie jak pojazdy autonomiczne, wchodzą w interakcję z ludźmi.

Dopóki pojawią się bardziej zaawansowana robotyka, kwestie etyczne będą narastać. W Etyczny krajobraz robotyki (PDF) autorstwa Pawła Lichockiego i wsp., Opublikowanej przez IEEE Robotics and Automation Magazine, badacze wymieniają różne problemy etyczne pojawiające się w dwóch zestawach aplikacji robotów: robotach usługowych i robotach śmiercionośnych.

Roboty usługowe są stworzone do pokojowego życia i interakcji z ludźmi, podczas gdy zabójcze roboty są tworzone do walki na polu bitwy jako roboty wojskowe.

Według Etyczny krajobraz robotykiNoel Shanky argumentuje, że „zdolności poznawcze robotów nie dorównują ludzkim, a zatem zabójcze roboty są nieetyczne, ponieważ mogą popełniać błędy łatwiej niż ludzie”. Ronald Arkin uważa, że ​​„chociaż system bezzałogowy nie będzie w stanie doskonale zachowywać się na polu bitwy, może działać bardziej etycznie niż istoty ludzkie”.

Po części pytanie o moralność używania robotów na polu bitwy wiąże się z zobowiązaniami dotyczącymi zdolności i rodzaj sztucznej inteligencji w pytaniu.

Roboty w wojsku: zaprojektowane do zabijania i moralnej odpowiedzialności

Roboty wojskowe z pewnością nie należą do teraźniejszości. Pochodzą z II wojny światowej i zimnej wojny. Niemiecki Goliat śledził miny i radzieckie teletanki. Robotów wojskowych można używać do strzelania z broni palnej, rozbrajania bomb, przenoszenia rannych żołnierzy, wykrywania min, odpalania rakiet, latania i tak dalej.

Obecnie opracowuje się wiele innych zastosowań robotów wojskowych, stosując inne technologie w robotyce. Wojsko amerykańskie będzie liczyć jedną piątą swoich jednostek bojowych całkowicie automatycznyw 2020.

Jaki rodzaj roboetyki zostanie osadzony w robotach wojskowych i kto będzie o nich decydował? Praw Asimova nie można zastosować do robotów zaprojektowanych do zabijania ludzi.

Również w 2020 roku, armia amerykańska będzie testować na żywo roboty opancerzone. W maju w Teksasie odbyła się demonstracja.

Czy roboty staną się w przyszłości agentami moralnymi?

Roboetyka stanie się coraz ważniejsza, gdy wkroczymy w erę, w której bardziej zaawansowane i wyrafinowane roboty, a także sztuczna inteligencja ogólna (AGI) staną się integralną częścią naszego codziennego życia.

Dlatego debata na temat kwestii etycznych i społecznych w zaawansowanej robotyce musi nabierać coraz większego znaczenia. Obecny rozwój robotyki i szybki rozwój sztucznej inteligencji wymagają od robotów i ludzi w ogóle przygotowania raczej wcześniej niż później.

W miarę postępu dyskusji na temat roboetyki niektórzy twierdzą, że roboty przyczynią się do budowania lepszego świata. Niektórzy twierdzą, że roboty nie są w stanie być agentami moralnymi i nie powinny być projektowane z wbudowanymi zdolnościami do podejmowania decyzji moralnych.

Wreszcie, być może jeszcze nie teraz, ale w przyszłości roboty mogą stać się agentami moralnymi, którym przypisuje się moralną odpowiedzialność. Do tego czasu inżynierowie i projektanci robotów muszą brać na siebie odpowiedzialność za etyczne konsekwencje swoich dzieł.

Innymi słowy, inżynierowie i projektanci robotów muszą być moralnie odpowiedzialni za to, co projektują i wprowadzają na świat.


Obejrzyj wideo: This Robot would let 5 People die. AI on Moral Questions. Sophia answers the Trolley Problem (Lipiec 2022).


Uwagi:

  1. Fynbar

    Ogromne dzięki, jak mogę ci podziękować?

  2. Norton

    Jednoznacznie doskonała wiadomość

  3. Nestor

    Ten warunek

  4. Samumuro

    Nie masz racji. Napisz do mnie na PM, porozmawiamy.



Napisać wiadomość