Różne

Dr Abdalla Kablan o budowaniu odpowiedzialnej sztucznej inteligencji

Dr Abdalla Kablan o budowaniu odpowiedzialnej sztucznej inteligencji


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Dr Abdalla Kablan jest seryjnym przedsiębiorcą i wielokrotnie nagradzanym ekspertem w dziedzinie fintech. Specjalizuje się w wykorzystaniu sztucznej inteligencji i uczenia maszynowego w projektowaniu złożonych systemów finansowych.

W swojej karierze założył szereg start-upów i firm specjalizujących się w głębokim uczeniu się, profesjonalnym kojarzeniu i Fintech. Ponadto dr Kablan jest absolwentem Microsoft Ventures w Wielkiej Brytanii i pracował nad projektami, które były prezentowane na Światowym Forum Ekonomicznym 2017 w Davos. Jego ostatnie przedsięwzięcia to Wyzer.ai i grupa Caledo.

Dr Kablan jest także pracownikiem naukowym na Uniwersytecie Maltańskim, gdzie prowadzi wykłady i badania na tematy związane z inteligencją obliczeniową, inżynierią finansową i nauką o danych finansowych. Podczas jego doktoratu W latach 2007-2011 dr Kablan badał kryptograficzne algorytmy blokowe kryjące się za bitcoinem (obecnie znany jako blockchain) i jest uznanym ekspertem w dziedzinie rozproszonych rejestrów. Ponadto dr Kablan doradza rządom w sprawach związanych ze strategicznym rozwojem i wykorzystaniem technologii, Fintech i technologii Blockchain / DLT. W 2018 roku dr Kablan zainaugurował szczyt DELTA, który stał się oficjalnym wydarzeniem na Malcie poświęconym DLT i innowacjom cyfrowym.

Usiadł z Ali Dikerem, Ali Dikerem, który odbył się w zeszłym tygodniu podczas konferencji The Next Web 2019, aby omówić aktualny stan sztucznej inteligencji i to, czy stanowi ona zagrożenie dla ludzkości, czy nie. Wywiad został lekko zredagowany dla jasności.

Ali Diker: Witam dr Kablan, cieszę się, że mogłeś być z nami dziś po południu. Chciałem, żebyśmy zaczęli od omówienia artykułu, który napisałeś w TechCrunch kilka lat temu, o tym, że sztuczna inteligencja nie stanowi zagrożenia dla społeczeństwa i świata w ogóle. Po pierwsze, niektórzy ludzie są dość pesymistyczni co do sztucznej inteligencji, ponieważ można ją uzbroić, a nawet być bardzo zabójczą, ale są optymiści, którzy wierzą, że sztuczna inteligencja zmieni sytuację na lepsze. W swoim artykule mówisz, że musimy przedefiniować niektóre pojęcia, na przykład świadomość, w miarę jak zbliżamy się do sztucznej inteligencji; co Twoim zdaniem należy przedefiniować oraz w jaki sposób i dlaczego powinniśmy przedefiniować te koncepcje dla sztucznej inteligencji?

Abdalla Kablan: Po pierwsze, dziękuję za zaproszenie mnie Ali. Szczerze mówiąc, mój utwór nie był tak optymistyczny, jak sugeruje tytuł. Powiedziałem więc, że sztuczna inteligencja nie jest zagrożeniem dla ludzkości, ale może internetem inteligentnych rzeczy. Powodem, dla którego tak to sformułowałem, jest to, że szczerze wierzę, że może to pójść w obie strony. Znajdujemy się na rozdrożu historii ludzkości, gdzie trzeba teraz podejmować pewne decyzje ze strategicznego punktu widzenia, które mogą mieć wpływ na przyszłość ludzkości.

Teraz mówiłem o różnych koncepcjach, a jedną z nich jest świadomość. Osiągnięcie świadomości na froncie cyfrowym jest niezwykle trudne i niezwykle złożone. Dzieje się tak głównie dlatego, że świadomość, podobnie jak inteligencja, jest czymś dość abstrakcyjnym i bardzo trudno jest zdefiniować, czym jest świadomość. Jednak obecnie skupiam się bardziej na osiągnięciu mądrości i tworzeniu mądrzejszych systemów niż na tworzeniu inteligentnych systemów i spróbuję wyjaśnić dlaczego.

Ogólny problem związany ze sztuczną inteligencją sprowadza się do zrozumienia danych. Moim zdaniem dane to proces pięciostopniowy; cykl życia danych, jeśli wolisz. Więc zaczynasz od danych; przetwarzasz dane i stają się one informacją; informacja z czasem przekształca się w wiedzę; wiedza wraz z praktyką staje się rozumieniem domeny problemowej; a potem jest coś, co - wraz z praktyką przetwarzania i rozumienia oraz inteligencji - ewoluuje w mądrość.

Przeważająca większość systemów sztucznej inteligencji historycznie wciąż tkwi w byciu gloryfikowaną przez inteligencję wiedzą i nie osiągnęła etapu mądrości, a różnica jest dość wyraźna: wiedza to różnica między prawdą a fałszem, ale mądrość jest różnicą między dobrem a złem.

Mój dobry przyjaciel lubi to mówić, że wiedza to wiedza, że ​​pomidor to owoc, ale mądrość to wiedza, aby nie dodawać go do sałatki owocowej. Sztuczna inteligencja, historycznie, nie potrafiła znaleźć związku lub wnioskowania po stronie mądrości. Powodem jest to, że przez ostatnie 40-50 lat w sztucznej inteligencji wyścig zbrojeń polegał głównie na stworzeniu kolejnego Einsteina, najlepszego modelu matematycznego, który może rozwiązać problem, taki jak pokonanie mistrza świata w Chess lub Go.

Zamiast tworzyć Einsteina, powinniśmy skupić się na stworzeniu Arystotelesa, który rozumie różne aspekty inteligencji, nie tylko intelektualną i matematyczną, ale także społeczną, kulturową i emocjonalną. Powodem, dla którego nie zostały one rozwiązane, nie jest to, że są nierozwiązywalne, ale to, że nikt się na nich nie skupił.

Dlatego teraz uważam, że zamiast skupiać się na sztucznej inteligencji, powinniśmy skupić się na sztucznej mądrości; tworzyć systemy, które zgodnie z projektem podążają dobroczynną ścieżką, a nie niszczącą. Jako ludzie mamy wiele wad; nie trzeba geniusza, aby zdać sobie sprawę, że jesteśmy irracjonalni, ale w sposób przewidywalny jesteśmy irracjonalni. Nosimy nasiona naszego samozniszczenia, ponieważ w całej naszej historii podjęliśmy tak wiele decyzji, które spowodowały nieszczęście i agonię, a jeśli istnieje wyższa inteligencja, zda sobie sprawę, że jesteśmy dość wadliwi i będzie to dla nas problem.

Jako członek zespołu ludzkości muszę chronić przyszłość naszego gatunku i wiem, że jest nieuniknione, że jeśli skupimy się na inteligencji, inteligentna istota zda sobie sprawę z naszych wad i wykorzysta je. Jeśli skupisz się na mądrości, mądrzejsza istota lub mądrzejsza kreacja będzie wiedziała, że ​​niszczenie ludzkości nie jest dobre dla nikogo, ponieważ w końcu ludzkość jest formą życia i z zasady nie powinno się z nią bawić.

Rzecz w tym, że sami ludzie zrobili to innym stworzeniom. Sposób, w jaki w przeszłości traktowaliśmy nie tylko zwierzęta, ale także siebie nawzajem - nawet jeśli jesteśmy bardzo inteligentni - może nam się przydarzyć, jeśli osiągniemy poziom osobliwości lub inteligencji maszynowej, który przewyższa ludzką inteligencję bez skupiania się na mądrości. Dlatego skupienie się na stronie regulacyjnej, skupienie się na stronie etycznej z punktu widzenia rozwoju jest dość kluczowe.

Narody świata powinny zwrócić na to większą uwagę, zanim będzie za późno. Weźmy na przykład przemysł motoryzacyjny, przez tyle lat nie mieliśmy pasów bezpieczeństwa, a wiele osób mówiło producentom samochodów, że potrzebujesz pasów bezpieczeństwa, ponieważ statyka pokazuje, że jeśli nie masz zapiętych pasów, umierasz . Producenci samochodów sprzeciwiali się temu przepisowi przez bardzo długi czas, aż w rzeczywistości musieli być zmuszeni do zapinania pasów bezpieczeństwa w samochodach.

Wiele osób zginęło bez pasów bezpieczeństwa, ale to nie spowodowało wymarcia ludzkości. Problem z sztuczną inteligencją polega na tym, że zanim ludzie zdadzą sobie sprawę, że należy ją uregulować, będzie już za późno. Nikt nie może przewidzieć przyszłości, ale musimy mieć strategiczne przewidywanie, jak mogłoby się to zmienić, jeśli nie będziemy za to odpowiedzialni.

Na Malcie, gdzie mam swoją siedzibę i skąd pochodzę, rząd w zeszłym roku powołał krajową grupę zadaniową ds. Sztucznej inteligencji, aby faktycznie zbadać potencjalne konsekwencje przyjęcia masowej sztucznej inteligencji, jednocześnie zachęcając do tego i wymyślając krajową Strategia, która przyciągnie twórców AI i projekty AI do przyjazdu i wprowadzania innowacji z Malty, ale w granicach naszych przepisów i w ramach krajowej strategii, która bierze pod uwagę etyczną stronę rozwoju, stronę własności intelektualnej i wszystko inne.

Myślę, że powinno to stać się globalną dyskusją i tylko wtedy, gdy badania i rozwój będą bardziej skupione na mądrości, wtedy złamiemy świadomość, złamiemy takie rzeczy, jak inteligencja emocjonalna, inteligencja społeczna. Nie jest to trudne, bo jesteśmy na bardzo wczesnym etapie. Sztuczna inteligencja nie jest nowa, istnieje od czasów Alana Turinga, ale skupialiśmy się na jednej stronie i zapomnieliśmy o 80% prawdziwego problemu.

To zrozumiałe, bo nawet w szkole, kiedy mówisz „och, ten uczeń jest inteligentny!” ponieważ ten uczeń dostaje najwyższą ocenę, ale to nie znaczy, że jest najbardziej inteligentnym uczniem. To odzwierciedla nasz własny irracjonalny sposób myślenia.

OGŁOSZENIE: Jak określimy, co jest rozsądne dla sztucznej inteligencji? Na przykład In Isaac Asimov's Ja robotem miałeś sztuczną inteligencję, która chroniła ludzi przed innymi ludźmi. W tym przypadku sztuczna inteligencja jest dobra dla niektórych ludzi, a dla innych stanowi przeszkodę.

AK: Właściwie to bardzo, bardzo trudno powiedzieć. Jak powiedziałem, sztuczna inteligencja staje się coraz inteligentniejsza, bardziej zaawansowana, ale nawet ludzie robią postępy nie do uwierzenia. Mógłbym nawet argumentować, że jako ludzie w tej chwili wszyscy jesteśmy cyborgami, ponieważ definicja cyborga to ktoś, kto ma jakieś cybernetyczne ulepszenie w swoim ciele. Mamy te urządzenia, które cały czas trzymamy w rękach i jeśli pomyślisz o tym historycznie, mieliśmy komputery typu mainframe, potem komputery, potem laptopy, potem iPhone'y, a potem Google Glass - co było trochę tymczasowe, ale to tylko kwestia czasu, zanim te rzeczy rzeczywiście dostaną się do naszego ciała i wszyscy zostaniemy rozdrobnieni.

Osobiście uważam, że jest też postęp po stronie ludzkiej, ale przeraża mnie to jeszcze bardziej niż to, że sztuczna inteligencja staje się znacznie bardziej inteligentna. Niestety, jeśli ludzie w tym zakresie bardziej posuwają się do cybernetycznej strony, spowoduje to poważną elitarną różnicę między ludźmi, bogatszych będzie stać na droższy, lepszy i inteligentniejszy chip. Dobór naturalny faktycznie zacznie faworyzować bogatszych, a nie zdrowszych lub mądrzejszych, i to moim zdaniem jest poważnym problemem.

Druga część dotycząca ochrony ludzi przez sztuczną inteligencję przed ludźmi to bardzo głęboki argument filozoficzny. W końcu to osiągniemy i - znowu wracając do regulacji - musimy już teraz przewidzieć te trendy i spróbować wymyślić prawa, abyśmy nie znaleźli się w takiej sytuacji lub scenariuszu.

OGŁOSZENIE: Więc następne pytanie dotyczy Blockchain. W jaki sposób technologia blockchain pomoże ulepszyć sztuczną inteligencję?

AK: To bardzo dobre pytanie. Wierzę więc, że wkrótce nastąpi konwergencja między różnymi dyscyplinami, a mianowicie Blockchain, AI i IoT. Na tym konkretnym froncie musimy zrozumieć, że na froncie blockchain, w przeciwieństwie do sztucznej inteligencji, jesteśmy na bardzo wczesnym, wczesnym etapie, takim jak internet w latach 80-tych i na początku lat 90-tych.

Tak więc internet istniał jako protokół przez prawie 30 lat, TCP / IP, dopiero jeden wspaniały wynalazek z wczesnych lat 90. wyniósł Internet w zupełnie inne miejsce, a tym wynalazkiem była przeglądarka internetowa. W dniu, w którym mieliśmy pierwszą przeglądarkę, zaczęliśmy realizować ten protokół TCP / IP w niewyobrażalny sposób z powodu całego tego indeksowania, o którym mówiliśmy na poziomie kodu, teraz możemy go wizualizować i wyszukiwać, możemy wyszukiwać, stało się dużo prostsze. W przypadku Blockchain tego nie osiągnęliśmy, ale jest w porządku, jest zdrowy i wiemy, że faktycznie tam pójdziemy i ostatecznie tam dotrzemy.

Jak wiecie, Blockchain jest zdecentralizowanym procesem księgowym, który nadal koncentruje się na przechowywaniu danych, nie dotarł jeszcze do strony przetwarzania. Osobiście wierzę, że wkrótce - a kiedy powiem wkrótce, mówię od pięciu do dziesięciu lat - blockchain opracuje znacznie bardziej wyrafinowane architektury, zdecentralizowane architektury technologii księgi, które pozwolą nie tylko na przechowywanie, ale także na przetwarzanie. To z drugiej strony zwiększy możliwości pozyskiwania, administrowania i przetwarzania danych wykraczające poza to, co obecnie mamy, co oznacza, że ​​systemy sztucznej inteligencji zostaną ulepszone do niewyobrażalnego poziomu.

Jeśli AI się poprawi, wrócimy do sporu o to, czy AI stanie się zagrożeniem dla ludzkości; jednak naprawdę wierzę, że blockchain jest dla nas fantastycznym rozwiązaniem, które jest darem niebios, ponieważ mamy konsensus z blockchainem i kiedy masz konsensus, możesz mieć jakąś formę kontroli. Jeśli sztuczna inteligencja ma stać się nieuczciwa, ogólnie mówiąc, nie osiągnie konsensusu, a zatem nie będzie w stanie wykonać pewnych zadań w sieci, ponieważ wiedzielibyśmy, że to nie powinno się zdarzyć, ponieważ nie jest to korzystne dla całego sieć.

Więc blockchain, ponieważ mamy te mechanizmy konsensusu, mam nadzieję, że będziemy mieć jakąś formę inteligencji w dowodzie robót, dowodzie stawek i osiągnięciu konsensusu, więc za pięć, dziesięć lat będzie dużo poprawy w tym zakresie obecna technologia. Pomoże nam to dokonać rozróżnienia między nieprawdą i fałszem, ale dobrem i złem, a jeśli Twoja decyzja o wykonaniu określonej czynności w sieci jest szkodliwa, nie osiągniesz takiej formy konsensusu.

Myślę więc, że blockchain jest bardzo dobrym rozwiązaniem i jako programiści powinniśmy o tym pomyśleć już teraz. Powiedziałem, zanim popełniliśmy błąd przy sztucznej inteligencji, że myślę, że powinniśmy rozpoznać, że naprawdę poszliśmy złą ścieżką w przypadku sztucznej inteligencji, a przy blockchain powinniśmy być odpowiedzialni, prowadzić te rozmowy i zdawać sobie sprawę, że blockchain nie będzie istniał sam; Sztuczna inteligencja wkrótce zintegruje się i będzie postępować wraz z nią. Stwórzmy więc nasze mechanizmy konsensusu nie tylko po to, aby robić te dowody, które potwierdzają transakcje finansowe - co jest świetne - ale jeśli chodzi o przetwarzanie, kiedy zdamy sobie sprawę, że kiedy pojawia się jakaś forma nie życzliwego działania, zatrzymujemy ją.

Łatwiej powiedzieć niż zrobić, ale jeśli zbierzemy razem wystarczająco dobrych mózgów, aby to rozwiązać, nie jest to coś nierozwiązywalnego. Wszystko, co robimy, to po prostu opóźnianie nieuniknionego, w końcu znajdziemy się w sytuacji, w której sztuczna inteligencja przewyższa ludzką inteligencję, ale jeśli możemy ją opóźnić lub kontrolować w sposób, który odbiera nam większość szkód, to wtedy byłoby wspaniale.

OGŁOSZENIE: Ale powiedzmy, że większość podejmuje złą decyzję o tym, jak można zintegrować sztuczną inteligencję i blockchain, o procesie. Z pewnością wydaje się, że większość ma skłonność do podejmowania złych decyzji, jak sobie z tym radzimy?

AK: To doskonałe pytanie, które sprowadza się do podstawowych zasad demokracji i podejmowania decyzji. Myślę, że powinniśmy mieć jakieś formy zabezpieczeń, przynajmniej w odniesieniu do rzeczy, które są oczywiste. Jeśli większość podejmuje decyzje, o których wiemy, że mogą potencjalnie zaszkodzić ludziom, nie tylko fizycznie, ale nawet finansowo, nie powinno się na to zezwalać; nawet jeśli większość uważa to za słuszne.

Znowu, negatywną stroną tego jest to, że osiągamy pewien rodzaj tyranii, w którym system jest potężniejszy niż ludzie. Nie jestem na wystarczająco dobrej pozycji, aby dokonać oceny, która jest dla mnie wystarczająco silna, ale wiem, że jest to problem, który należy omówić i rozwiązać, więc myślę, że potrzeba więcej dialogu i badań.

Chciałbym poświęcić więcej czasu, aby po prostu usiąść i pomyśleć o tym, ale problem, który wszyscy mamy, polega na tym, że oczywiście w życiu dzieje się tak wiele innych rzeczy. Myślę, że powinni być ludzie, którzy poświęcają swój czas tylko na przemyślenie i rozwiązanie takich problemów, ponieważ masz absolutną rację, historia jest pełna większości podejmujących decyzje, które nie były złe dla większości, ale nie nazwalibyśmy ich dobrymi decyzje.

OGŁOSZENIE: Chcę wrócić do tego, co powiedziałeś wcześniej, że nie powinniśmy próbować tworzyć więcej Einsteinów, ale powinniśmy tworzyć więcej Arystotelesów. Sztuczna inteligencja rozwija się w taki sposób, że mamy AI, które komponują muzykę - odzwierciedlają ścieżkę niektórych kreatywnych umysłów, takich jak Mozart czy Beethoven - ale to nie jest prawdziwa kreatywność. Czy myślisz, że sztuczna inteligencja rozwinie w pewnym momencie prawdziwą kreatywność, tak jak ludzie, opracowując nowe koncepcje, takie rzeczy?

AK: Zdecydowanie uważam, że jest to możliwe i wracając do tego, co powiedziałem, tworzenie mądrzejszej sztucznej inteligencji - lub sztucznej mądrości - jest w rzeczywistości częścią tego. W tej chwili, nawet jeśli mamy te genialne AI, które komponują muzykę, jeśli zapytasz tę samą AI „Jaka jest stolica Estonii?” nie wie, o czym mówisz, ponieważ zostało stworzone w jednym konkretnym celu.

To właśnie pokazuje, że wciąż patrzymy na wąską inteligencję zamiast na szerszą formę inteligencji. W tej chwili bardzo trudno jest zmusić sztuczną inteligencję, która pokonała ludzkiego mistrza świata w szachach, do zrobienia filiżanki kawy w kuchni, której nigdy nie widziano. A może - przepraszam za ten przykład, może go nie używaj - ale jednym z interesujących problemów jest wybór odpowiedniego pisuaru w łazience, którego nigdy wcześniej nie widziałeś, ponieważ ilość ludzkiej inteligencji, która bierze udział w tym procesie, jest oszałamiająca.

Jeśli wejdziesz do środka i jest pięć pisuarów, bierzesz ten z boku. Jeśli ktoś wejdzie, prawdopodobnie nie weźmie tego obok ciebie, pójdzie do jednego kilka miejsc dalej i tak dalej. Jest wiele kalkulacji wnioskowania, które są nie tylko inteligencją, jej społeczną, emocjonalną, kulturową, i trzeba to przeżyć, pojąć i zrozumieć bardziej z praktyki.

Tak więc w przypadku sztucznej inteligencji byliśmy dość wąscy, nawet z punktu widzenia modelowania matematycznego, ponieważ niektórzy powiedzą, że chcemy rozwiązać problem szachów, użyjmy sieci neuronowej. Niektórzy powiedzieliby, że stwórzmy klimatyzator do kontroli klimatu, użyjmy logiki rozmytej. Chcemy stworzyć sztuczną inteligencję, która potrafi jeździć na rowerze, użyjmy uczenia się przez wzmacnianie.

OGŁOSZENIE: Czy możesz to trochę rozwinąć?

AK: Pewnie. Uczenie się ze wzmocnieniem jest piękne, naśladuje sposób, w jaki uczą się ludzie. W uczeniu się przez wzmacnianie masz dwie funkcje matematyczne, funkcję nagrody i funkcję kary, więc jest bardzo podobna do sposobu, w jaki działa ludzki umysł. Więc jeśli jeździsz na rowerze i wykonujesz zły ruch, upadasz, to cię boli, uruchomiłeś funkcję kary i będziesz wiedział, że już nigdy nie zrobisz tego ruchu. Jeśli idziesz w linii prostej i cieszysz się, że idziesz w linii prostej, wiesz, że tak powinieneś to robić, aby wyzwolić funkcję nagrody w twoim mózgu.

Tak samo jest z uczeniem się przez wzmacnianie, więc jeśli popełnisz błąd, matematycznie mówisz, że nigdy nie powinieneś tego robić, a jeśli postępujesz właściwie, matematycznie mów, rób więcej tego zachowania. Na przykład istnieją algorytmy genetyczne, co oznacza, że ​​kopiują mechanizmy doboru naturalnego, aby znaleźć najbardziej optymalne rozwiązanie konkretnego problemu, takiego jak zarządzanie portfelem itp.

Więc to nie są zbieżne światy, więc myślę, że istnieje przyszłość dla wszystkich tych modeli matematycznych, aby faktycznie tworzyć systemy hybrydowe. Nie ma więc matematycznego sposobu na zrozumienie takich rzeczy, jak zdrowy rozsądek lub przeczucia, ale logika rozmyta jest najbliższym modelem matematycznym, który może Cię do tego doprowadzić. Nie ma modelu matematycznego, który nauczyłby dziecko liczyć od jednego do dziesięciu, ale najbliższa jest mu sieć neuronowa. Nie ma modelu matematycznego do nauki jazdy na rowerze, ale uczenie się przez wzmacnianie przybliża Cię do tego.

Więc jeśli połączymy te wszystkie razem, osiągniemy jakąś formę sztucznej inteligencji, która będzie znacznie bardziej obejmująca i zrozumie różne aspekty rozwiązywania problemów, które doprowadzą nas do szerszej inteligencji, która nie koncentruje się konkretnie na jednym konkretnym problemie. Myślę, że w tym miejscu powinniśmy ponownie spojrzeć na rzeczy nawet z behawioralnego punktu widzenia agnostycznego, ponieważ teraz w przypadku większości AI, jeśli mam sztuczną inteligencję, która będzie handlować na rynkach finansowych, będę ją szkolić tylko z danymi finansowymi. Jeśli mam sztuczną inteligencję, która będzie przewidywać pogodę, będę ją trenować tylko na danych pogodowych.

Ale musimy stworzyć AI, które są agnostykami danych, ponieważ my, jako ludzie, jesteśmy agnostykami danych. Jeśli więc zdecydujesz się zostać stolarzem, po prostu nauczysz się stolarstwa. Nie rodzisz się od pierwszego dnia, wiedząc, że będziesz stolarzem. Jako ludzie, nasze mózgi są tak okablowane, że możemy uczyć się różnych rzeczy w tym samym czasie. W przypadku sztucznej inteligencji tak nie jest.

OGŁOSZENIE: Więc mówisz, że możemy stworzyć sztuczną inteligencję, która ma pragnienia, takie jak - nie chcę tego mówić, ale to jest najbliższe - uczucia? Czy to możliwe, czy dobrze to zrozumiałem?

AK: Uczucia to bardzo, bardzo ludzka rzecz.

OGŁOSZENIE: Wiem, ale to, do czego zmierzam, to czy możemy stworzyć sztuczną inteligencję, która może o tym zdecydować chce zostać stolarzem?

AK: Prawdopodobnie, jeśli był na to narażony. Kluczem jest to, że sztuczna inteligencja powinna być stworzona w taki sposób, że jeśli chcę przekształcić ją w stolarza lub samojezdny samochód, opiera się na tych samych podstawowych zasadach. Więc nie muszę budować go od podstaw, żeby być stolarzem. Potrzebuję podstawowego komponentu sztucznej inteligencji i jeśli miałoby to przekształcić się w samochód samojezdny, dodałbym do niego po prostu komponent samojezdny. Gdybym chciał, żeby to był stolarz, dodałbym po prostu element stolarski, ale rdzeń AI powinien być agnostykiem danych.

OGŁOSZENIE: Kończy nam się czas, czy chciałeś zakończyć jakieś przemyślenia na ten temat?

AK: Tak, więc jak powiedziałem, nie jestem ani pesymistą, ani optymistą, po prostu czuję ciężar odpowiedzialności - nie tylko na moich ramionach, ale na barkach każdego w tej przestrzeni - że musimy dziś podejmować właściwe decyzje, aby chronić jutro. To naprawdę może pójść w obie strony, a decyzje, które podejmujemy dzisiaj, z pewnością wpłyną na przyszłość.

Po prostu weź teraz telefony komórkowe. Jesteśmy już od nich tak uzależnieni, a oni nie mają inteligencji w zakresie interakcji z nami. Wyobraź sobie, co się stanie, jeśli telefon zda sobie sprawę, jak bardzo jesteś uzależniony od Internetu, może manipulować tobą w sposób nie do uwierzenia.

Znowu musimy być odpowiedzialni, jak wszystko w ludzkości, będziecie mieli odpowiedzialnych ludzi i nieodpowiedzialnych ludzi, dlatego mamy problemy, dlatego mamy wojny, dlatego nasza historia jest pełna przypadków, w których prawie całkowicie zniszczyliśmy się katastrofami, które zostały stworzone przez nas jako ludzi; więc zawsze będziesz mieć nieodpowiedzialnych.

Problem w tym, że od teraz musimy zaszczepić poczucie odpowiedzialności po stronie programistów. Na przykład bardzo podoba mi się to, że kiedy chodzisz na takie imprezy, więcej ludzi używa papierowych kubków niż plastikowych, ponieważ zaczęliśmy zdawać sobie sprawę, że plastik niszczy planetę. Teraz spotykasz ludzi, którzy mówią: „Nie dawaj mi plastikowego kubka, daj mi papierowy”. To wspaniale!

Po stronie programistów nie mamy żadnego poczucia odpowiedzialności, zawsze chodziło o to, co czujesz, więc teraz pojawiła się nowa szkoła myślenia, która mówi Ci: „Słuchaj, cokolwiek robisz, po prostu nie spieprz przyszłości!” Więc to mój wyciąg z tego wszystkiego.

OGŁOSZENIE: Dziękuję Abdalla, to była dla mnie świetna rozmowa.

AK: Ali, to było bardzo stymulujące intelektualnie, dziękuję.


Obejrzyj wideo: Czy dorównamy sztucznej inteligencji? Neuralink konferencja feat. Mateusz Wielgosz (Może 2022).