Wiadomości

Grupa naukowców ostrzega, że sztuczna inteligencja może wymknąć się spod kontroli

Podoba Ci się to co robimy? Wesprzyj projekt Magna Polonia!

Nie będziemy w stanie przewidzieć, w która stronę rozwijać się będzie sztuczna inteligencja (AI) ani jej w pełni kontrolować – orzekli naukowcy z Instytutu Maxa Plancka.

Twórcy rozwiązań AI przewidzieli konieczność zastosowania w nich „algorytmów powstrzymania” czy też reguł, które miałyby pozwolić ludziom hamować decyzje podejmowane przez sztuczną inteligencję. To może jednak nie wystarczyć.

– Dotychczas wizja superinteligentnych maszyn, przejmujących władzę nad światem, pojawiała się głównie filmach science fiction – podkreślił Manuel Cebrian, jeden z naukowców, którzy przygotowywali raport. – Niemniej już teraz niektóre roboty działające na podstawie sztucznej inteligencji, wykonują czynności, które opanowały w nieznany dla ich twórców sposób — dodał.

Technologia AI znajduje zastosowanie w coraz to nowych dziedzinach życia. Czy kiedyś nie rozwinie się w taki sposób, że człowiek przestanie nad nią panować?

Manuel Alfonseca, współautor i koordynator badań w Instytucie Maxa Plancka wskazuje na sformułowane 80 lat temu przez prof. Isaaca Asimova prawa dotyczące relacji ludzi i robotów. Według niego, „robot nie może skrzywdzić człowieka ani poprzez zaniechanie dopuścić, by doznał on krzywdy. Robot ma także wykonywać rozkazy człowieka, chyba że stoją w sprzeczności z pierwszym prawem — mówi drugie prawo. Trzecia zasada wskazuje, że maszyna powinna chronić samą siebie, chyba że naruszy to pierwsze i drugie prawo” – czytamy na łamach portalu Business Insider.

Autorzy raportu omawiali także sposoby kontrolowania sztucznej inteligencji. Jednym z nich jest ograniczenie maszynom dostępu do internetu. Jednak naukowcy doszli też do wniosku, że nie da się opracować skutecznego „algorytmu powstrzymania” maszyn przed działaniem na szkodę dla człowieka.

„Badanie zachowań komputerów opierających się o sztuczną inteligencję rodzi kolejne wyzwania dla osób zajmujących się kwestiami etycznymi w robotyce” – ocenili pracownicy Instytutu.

„Nawet gdy w procesie uczenia danej maszyny oprzeć się o trzy zasady Asimova, to wciąż istnieje ryzyko, że sterująca nią sztuczna inteligencja dojdzie do własnych, niezależnych wniosków” – stwierdzili.

Iyad Rahwan z Centrum Ludzi i Maszyn Instytutu Maxa Plancka podkreślił, że technologia uczenia maszynowego stosowana dla komputerów powoduje nieprzewidywalność ich zachowania. dlatego należy rozwijać AI tylko do pewnego momentu. Jednak człowiek może przeoczyć linię, które nie powinien przekraczać aby nie pozwolić maszynom wyswobodzić się z bezpiecznego dla nas reżimu. Chodzi o przewyższenie ludzkiej inteligencji przez tę sztuczną.

Źródło: businessinsider.com.pl. pch24.pl

Podoba Ci się to co robimy? Wesprzyj projekt Magna Polonia!