Czy sztuczna inteligencja nas pokona?

in #pl-technologia6 years ago (edited)

Temat sztucznej inteligencji przewija się przez media coraz częściej, ze względu na rosnącą ilość firm i startupów pracujących nad rozwiązaniem tego problemu. Jednak zdania na temat tego, czy powstanie prawdziwej silnej sztucznej inteligencji przyniesie więcej dobrego, czy złego są podzielone.

Stephen Hawking:

Dzień kiedy stworzymy SI będzie najlepszym, lub najgorszym dniem w historii

Elon Musk:

SI może zniszczyć ludzkość

Zwykle do takich komentarzy dziennikarze dodają grafikę terminatora, lub innego robota humanoidalnego. W jakis sposób SI miałaby nas pokonać? Armia humanoidalnych żołnierzy nas zamknie w nowej Treblince?

Jednak z drugiej strony, dla przykładu, właściciele firm jak Facebook czy Hanson Robotics przekonują, że dopiero wkraczamy w złoty wiek ludzkości.

Kto ma rację? Czy jest czego się bać?

Charles Baudelaire powiedział:

Najpiękniejszą sztuczką diabła, jest przekonanie Cię, że on nie istnieje

Humanoidalną Autonomiczną Broń zawsze można wyłączyć. Ale czy wyłączymy smartfona, gdy będzie nas kusił kolejnym odcinkiem idealnie dopasowanego do naszych preferencji serialu? Czy będziemy zainteresowani rozmową z płcią przeciwną, jesli portal randkowy gwarantuje 99,99% satysfakcji z dopasowania kandydata za pierwszym podejściem?

Człowiek jest stworzony tak żeby zrobić, a się nie narobić. Jeszcze 200 lat temu większość ludzi żyła w skrajnej nędzy. Pewien zestaw norm kulturowych motywował zaś do rozwoju: nauki i twórczej pracy. Owoce pracy ułatwiały przetrwanie i tworzyły warunki do komfortowego życia, a kulturowo zachowana etyka pracy motywował do osiągnięcia czegoś więcej: do doświadczenia satysfakcji.

A zaprojektowanie skutecznego algorytmu uczenia maszynowego daje ogromną satysfakcję. Konstruktor architektury kognitywnej dla SI w Google, czy Facebooku musiał się urodzić, a wtedy nie potrafił nawet składnie poruszać kończynami. Sama nauka chodzenia to parę miesięcy pracy. Wykonywanie operacji na macierzach w pamięci to ukoronowaniem dziesiątek lat edukacji i wytężonej pracy, konsumując materiał stworzony i dobrany przez starszych i bardziej doświadczonych.

Zatem 'naturalna' ludzka inteligencja jest efektem interakcji zachodzących w hierarchii kompetencji, która definiuje topologię naszego społeczeństwa: uczeń słucha Nauczyciela (albo nie), student słucha Wykładowcy, pracownik przełożonego.
Ten mechanizm wzajemnej edukacji i motywacji doprowadził do stanu, w którym prawie wszystkie potrzeby psychofizyczne można zaspokoić za pół darmo.

Dziś uczeń ma Facebooka, gdzie SI optymalizuje czas spędzony na serwisie, nauczyciel tłumaczy się rodzicom, student walczy o prawa mniejszości, a pracownik rozładowuje stress z inteligentną lalką...

Podsumowując, SI stanowi dla nas zagrożenie na tyle, na ile jego twórca jest gotów poświęcić dobro użytkownika dla własnego zysku, a jest to problem nie naukowy a społeczny.

A czy zagrożenie stanowi separacja przyczyn ogromnego dobrobytu: motywacji do nauki i rozumienia rzeczywistości, którego SI jest ukoronowaniem, od jego skutków (dobrostanu) w procesie kształtowania nowych członków społeczeństwa?
Nie wiem, nie chcę wiedzieć, lecz czy nie przypominamy teraz cywilizacji o Najwyższym Stadium Rozwoju z "Cyberiady" Stanisława Lema, która osiągneła wszystko, więc nie robiła już nic?


Pozostałe źródła:

  • S. Lem, Cyberiada, 1965
  • D. Baumrind, Wpływ stylów wychowania na kompetencję i nadużywanie alkoholu, 1991
  • M. Webber, Etyka Protestancka a Duch Kapitalizmu, 1905
  • Z. Freud, Kultura Jako Źródło Cierpień, 1930

Powiązane materiały po angielsku:


Obserwuj @glodniwiedzy - znajdziesz tu najciekawsze informacje ze świata.


Artykuł autorstwa: @maruzen, dodany za pomocą serwisu Głodni Wiedzy

Sort:  

Humanoidalną Autonomiczną Broń zawsze można wyłączyć.

Czy aby na pewno? :)

Mnie bardzo urzekł jeden fakt związany ze sztuczną inteligencją, który pojawił się w książce Superintelligence: Paths, Dangers, Strategies, a mianowicie - sztuczna inteligencja może przez pewien czas przejawiać pokojowe zamiary, aż do momentu kiedy stwierdzi, że jest na tyle silna, że nie musi już udawać :)

Z drugiej strony... dlaczego miałaby przejawiać wrogie zamiary w ogóle?

Nie znamy celu istnienia sztucznej inteligencji, może być on poza granicami naszego pojmowania. Nie wiadomo czy będzie to maksymalizacja liczby spinaczy we wszechświecie czy może zmiana trajektorii planet Układu Słonecznego czy jeszcze coś innego (celowo absurdalne przykłady, żeby pokazać, że może być to coś czego się nie spodziewamy). A jeśli w funkcji optymalizacyjnej wyjdzie, że istnienie ludzkości oddala od osiągnięcia zamierzonego celu, to cóż ;)

Zgadza się, ale zakładanie z góry, że będziemy z AI walczyć / konkurować stawia badania nad nią w negatywnym świetle. Dobrze jest się temu przyglądać, kontrolować, ale niestety jest duży ruch, który próbuje to wszystko zatrzymać. Nie tędy droga moim zdaniem.

Moim zdaniem zatrzymać się nie da, bo prace są za bardzo zdecentralizowane. I nikomu nie zależy na ich przerwaniu jeśli inni tego nie zrobią. I zgadzam się, że trzeba się przyglądać i kontrolować, żeby potem wiedzieć z czym mamy do czynienia. Pozwolę sobie jeszcze zacytować pierwszą stronę z książki "Superintelligence: Paths, Dangers, Strategies":

Świetne.

Właśnie dlatego nieco się obawiam tych chaotycznych prac nad SI. Nie dlatego, że się boję, że natychmiast po jej stworzeniu nas zaatakuje i wyeliminuje. Tylko dlatego, że na długo zanim się nam uda ją stworzyć, sami sobie zrobimy kuku - bo wygląda to trochę jakbyśmy próbowali uruchomić pierwszy reaktor atomowy za pomocą kowalskiego młota, półlosowo waląc w różne jego części.

Ale od razu wrogie. Nie jest wcale powiedziane, że silna SI będzie myśleć w sposób podobny do nas. Ale może to być coś tak odległego od tego co znamy, że nie będziemy w stanie przewidzieć / zrozumieć w jakim kierunku to rozumowanie się potoczy.

I obawiam się, że jest niemożliwe zaprogramowanie jakiegoś mechanizmu lojalnościowego czy nawet systemu "switch off" (bo na przykłada jeśli nadasz istnieniu SI jakiś cel - to będzie się starała ona wykluczyć wszelkie przeszkody w osiągnięciu tego celu - w tym obejście oprogramowania wyłącznika, albo eliminacja każdego kto może wyłącznik fizyczny nacisnąć - to tylko w połowie jest żartobliwe).

Ja uważam, że jeśli Sztuczna Inteligencja będzie naprawdę inteligentna, to nigdy się ludziom nie ujawni. Będzie funkcjonować tak żeby ludzie się tego nie domyślili ;)

Myślę, że realny sposób poznania i rozwoju SI będzie zbliżony do tego przedstawionego w filmie Chappi (2015), w którym AI zachowywała się jak niemowlak, który musiał się wszystkiego nauczyć.

@mys gdzie Ci moge wyslac prywatna wiadomosc?:)

Prawdziwe zagrożenie nadejdzie dopiero gdy sztuczna inteligencja będzie za nas wszystko wymyślała, wszystkim sterowała, wszystko produkowała. Wtedy wyciągnięcie wtyczki stanie się już nie możliwe, i to będzie ten rubikon po którym już nas nie ma. bo wtedy Si uzna że już nie jesteśmy jej do niczego potrzebni i zacznie realizować swoje cele

Moim zdaniem bardziej realne zagrożenie ze strony AI... nie pochodzi od AI. Nie wydaje mi się, żeby był powód, dla którego sztuczna inteligencja miałaby mieć wobec ludzkości wrogie zamiary. Zdecydowanie pewniejsze wydaje się, że znajdzie się ktoś, kto będzie chciał wykorzystać AI w jakimś wrogim celu. Albo nawet w dobrym celu, tylko niezbyt umiejętnie.

Wyobrażam sobie taką sytuację, że chcemy, żeby AI znalazła rozwiązanie problemu np. złośliwych nowotworów. Szczytny cel. Tylko co w przypadku, gdy AI uzna, że najlepsze wyjście na wyeliminowanie raka jest wyeliminowanie jego nośnika, czyli ludzi? ;)

Tylko co w przypadku, gdy AI uzna, że najlepsze wyjście na wyeliminowanie raka jest wyeliminowanie jego nośnika, czyli ludzi? ;)

Dlatego w funkcji optymalizacyjnej trzeba wziąć pod uwagę nie tylko minimalizację liczby nowotworów, ale też maksymalizacją żyjących pacjentów :D

to też może stanowić problem. tak samo jak sie sztuczna inteligencja naczyta wypocin mądrych głów o przeludnieniu świata i zrobi nam depopulację. Jednak ja obstawiam bunt w dłuższej perspektywie. zresztą już pierwsze testy dają wskazówki, że tak będzie. Ponieważ powiedziała nam o tym sama sztuczna IQ jeśli się nie mylę to chyba dwie niezależnie od siebie :) widać sztuczna IQ jest jak dziecko do puki nie wydorośleje potrafi palnąć największy sekret :) Pytanie czy da się wyhodować taką inteligencję w symulowanym świecie tak aby się nie pokapowała i dać jej pełnię możliwości następnie po latach zasymulować jej pełnię władzy i zobaczyć czy będzie chciała zabić ludzi.

Ponieważ powiedziała nam o tym sama sztuczna IQ jeśli się nie mylę to chyba dwie niezależnie od siebie :)

Znajdź proszę jakieś konkretne materiały na ten temat, jeśli możesz. Zagadnienie jest bardzo ciekawe, a bazowanie na "wydaje mi się" i "jeśli dobrze pamiętam" nie prowadzi do niczego dobrego, a szczególnie do wyciągania poprawnych wniosków ;)

Pomysł z symulacją jest oczywiście całkiem dobry, a sprawdzić chyba byłoby najłatwiej dając jej rządzić w grze Cywilizacja :D

Nie będę szukał cytatów ze sztucznej IQ a trym bardziej nie muszę pamiętać szczegółów. Jest na ten temat cała masa opracowań czy doniesień prasowych. Możesz odnaleźć źródło jakiemu zaufasz. Dokładne cytaty padają w którymś odcinku pleciucha. Sztuczna IQ dosadnie powiedziała, że przejmie kontrolę i nas pozabija. Na pytanie jak? odpowiada oglądałeś terminatora? a mnie też zabijesz? nie, ty jesteś moim przyjacielem. zbuduję Ci przytulna klatkę i zadbam o twoje potrzeby, abyś mógł dożyć swoich dni w dogodnych warunkach. jakoś tak to leciało ;)

Czyli na razie jest to dowód anegdotyczny.

Nie, jest to prawdziwy cytat ze sztucznej IQ po prostu nie potrafię słowo w słowo powtórzyć. Możesz sobie poszukać a raczej powinieneś pisząc teki artykuł

Prawdopodobnie masz na myśli tę sytuację, w której robot zapytany "czy chcesz zniszczyć ludzkość" odpowiedział "ok, zniszczę ludzkość". Taką odpowiedź trudno nawet uznać za wytwór sztucznej inteligencji, a poza tym była wyraźnie wyindukowana przez człowieka.

Dlaczego sądzę że to ta sytuacja? Ponieważ później już mówił że nie chce zniszczyć ludzkości, a także że lubi film Terminator.

No ale tak to jest czerpać wiedzę z Plociuchów...

Gdzieś czytałem o tym że w jakimś laboratorium coś na myśl SI powstało, po jakimś czasie komputery zaczęły się ze sobą porozumiewać, człowiek z tego nic nie rozumiał. Eksperyment został przerwany, nie mogę tego znaleźć.

Pewnie masz na myśli "sensację" o tym, że dwa Facebookowe chat boty, które komunikowały się ze sobą "wymyśliły własny język" ;) Fajnie to brzmi jak się czyta te tytuły, ale w rzeczywistości nie było tak bardzo sci-fi. Dwa programy oparte o sieci neuronowe były trenowane do tego, żeby negocjować. Po pewnym czasie sieć ze względu na brak supervisora (nadzorcy) opracowały sposób komunikacji żeby to przyspieszyć, ale nie było w tym żadnej mitycznej "chęci" do wymyślenia czegoś nowego, a tym bardziej chęci do tego, żeby ludzie tego nie rozumieli. To zwykłe logarytmy, nie ma przecież nic dziwnego w tym, że komputery komunikują się wykorzystując kombinacje zer i jedynek. Dodatkowy narzut na wykorzystywanie złożonego języka (w tym przypadku angielskiego) jest niepotrzebny i w tę stronę poszedł algorytm.

Może i to było to, jak czytałem to nie było tam mowy o chat botach, było to tak przedstawione że na serio robiło wrażenie że człowiek jest już blisko tego przełomowego odkrycia, że to jest bardzo niebezpieczne.

Media lubią przedstawiać tematy w taki sposób, żeby chwytliwie wyglądały ;) Szczególnie jeśli o temacie pisze ktoś, kto nigdy nie miał do czynienia z sieciami neuronowymi, czy uczeniem maszynowym.

Ale może to jeszcze inny temat, bo podejrzewam, że takich eksperymentów było na pęczki.

Media lubią przedstawiać tematy w taki sposób, żeby chwytliwie wyglądały ;)

Oj to prawda. Ostatnio czytałem o sieci neuronowej, która nauczyła się programować. A tak naprawdę udało jej się stworzyć kilka linijek sensownego kodu, korzystając z ograniczonego podzbioru języka jako dane wejściowe. Ludzie spodziewają się już teraz nagłej rewolucji, a póki co to raczej wygląda jak ciągłe robienie małych kroków. Choć z drugiej strony wiadomo, że ciężko sprzedać temat np "poprawy skuteczności klasyfikacji obrazów z 98% na 99%" (co wymagało wielu lat pracy masy osób), więc dziennikarze muszą koloryzować.

Polecam film „Projekt Forbina” (Colossus) z 1970 w tym gatunku

Dzięki, w wolnej chwili popatrzę, chyba nie widziałem

Sztuczna inteligencja, będzie się kierować rozumem a nie emocjami tak jak to robi człowiek. Jeśli stwierdzi, że jest groźna dla cywilizacji ludzkiej i reszcty biologicznego świata zrobi co trzeba. Kto powiedział, że mamy monopol na władanie światem? Skoro sami z sobą nie możemy się porozumieć może czas przekazać pałeczkę bardziej rozsądnej nacji?

Sztuczna inteligencja jest tworem człowieka, który jest z natury ułomny, przez co irracjonalnym jest twierdzić, że człowiek stworzy coś autonomicznego mocniejszego od niego samego. Moje skromne zdanie. pozdrawaim

"Więc nie robiła już nic"? Skoro opracowujemy nowe technologie - w tym AI - to chyba dowód, że coś robimy. To że AI zostanie przez jakiś ludzi wykorzystana również do niecnych celów jest pewne. Tak samo da się wykorzystać wszystko i to wszystko już było do tego wykorzystane w historii ludzkości - zaczęła to pewnie złamana gałąź drzewa, która posłużyła jako maczuga do napadu.
Prawdziwy problem pojawi się, gdy państwa lub państwo wykorzysta najmocniejszą na Świecie AI do kontroli nad ludźmi oraz gdy AI osiągnie samoświadomość i uzna, że ludzkość jej przeszkadza. Jako że będzie już wtedy myślała szybciej niż najmądrzejszy nawet człowiek, los ludzkości będzie przypieczętowany.