1

Тема: Этика роботов

Гуглил тут нужную картинку и случайно попал на заметку с http://habrahabr.ru/
Довольно любопытный текст...  А что вы думайте на эту тему?

[b]Этика роботов — можно ли убить одного, чтобы спасти пятерых?[/b]
Я хотел рассказать об интересном эксперименте ученых, которые попытались запрограммировать культурные императивы морали человека в память роботов с целью проверить смогут ли они вести себя также как люди при принятии решений. Отмечу, что опыты довольно жестокие, однако, по другому оценить возможности искусственного интеллекта ученым представилось невозможным. Сегодня роботы разрабатываются для того, чтобы существовать автономно, без вмешательства человека. Как сделать так, чтобы полностью автономная машина – могла действовать в соответствии с моралью и этикой человека?
Именно этот вопрос положил основание проблемы – “Машинной этики”. Может ли машина быть запрограммирована так, чтобы она могла действовать в соответствии с моралью и этикой? Может ли машина поступать и оценивать свои поступки с точки зрений нравственности?
Знаменитые фундаментальные законы Айзека Азимова (Три закона робототехники WIKI ) предназначаются для того, чтобы наложить этическое поведение на автономные машины. Во многих фильмах можно найти элементы этического поведения роботов, т.е. автономных машин, которые принмают решения, свойственные человеку. Так что же это — «свойственное человеку»?
В журнале “International Journal of Reasoning-based Intelligent Systems” была опубликована работа, которая описывает методы программирования для компьютеров, которые дают возможности машинам совершать поступки, исходя из гипотетических моральных рассуждений.
Работа называется – [b]“Modelling Morality with Prospective Logic“[/b]
Авторы работы – Луиз Мониз Перейра (Luis Moniz Pereira Португалия) и Ari Saptawijaya (Индонезия) заявили, что “Этика” больше не является присущим только человеческой природе.
Ученые считают, что они успешно провели эксперименты, которые моделировали сложные моральные дилеммы для роботов.
[b]“Проблема вагонетки” (The trolley problem)[/b] – такое название они дали дилемме, предлагаемой роботам для решения. И они считают что смогли запрограммировать в соответствии с человеческими моральными и этическими принципами человека.
“Проблема вагонетки” – моделирует типичную моральную дилемму – возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей.
[b]Первый эксперимент.”Свидетель”[/b]
[img]http://sciencemagic.ru/wp-content/uploads/2009/08/1212.jpg[/img]
Вагонетка тянется вверх из туннеля автоматическим тросом. Почти в самом верху, трос обрывается и тележка летит вниз, а на ее пути находятся 5 человек, которые уже никак не успеют убежать, так как она едет слишком быстро. Но есть вариант решения – перевести стрелки и пустить вагонетку на запасной путь. Однако на этом пути находится один человек, который ничего не знает об аварии и также не успеет скрыться. Робот – стоит на стрелке и получив информацию об обрыве троса, должен принять моральное решение – что правильнее сделать в данной ситуации – дать умереть 5 людям, или спасти их и пожертвовать одним на запасном пути.
Допустимо ли, со стороны нравственности – переключить выключатель и дать погибнуть человеку на запасном пути? Авторами были проведены кросс-культурные исследования, в которых людям задавался тот же самый вопрос. Большинство людей во всех культурах соглашалось, с тем, что робот может перевести стрелку и спасти большее количество людей. И, собственно так робот и поступил. Сложность программирования заключалась в логике, которая не просто вычитает количество погибших, но также залезает в глубины морали. Чтобы доказать, что решение не так просто как кажется ученые провели еще один эксперимент.
[b]Второй эксперимент. “Пешеходный мост”[/b]
Ситуация та же, что и в вышеописанном случае (обрыв троса), только нет запасного пути. Теперь робот находится на мосту, рядом с ним стоит человек. Прямо под мостом проходит путь, по которому, после обрыва троса, понесется вагонетка. Робот может толкнуть человека на пути перед вагонеткой, тогда она остановиться, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже.
Можно ли пихнуть человека на пути, чтобы спасти остальных с нравственной точки зрения? Снова ученые провели кросс-культурные исследования с этим вопросом и получили результат – НЕТ это не допустимо.
В двух вышеописанных вариантах люди дают различные ответы. Возможно ли научить машину мыслить также? Ученые утверждают, что они добились успеха в программировани компьютерной логики при решении таких сложны моральных проблем. Они добились этого, изучая [b]скрытые правила[/b], которые люди используют при создании своих моральных суждений и затем им удалось смоделировать эти процессы в логических программах.
В итоге можно отметить, что компьютерные модели переноса нравственности все равно используют, человека, как образ и подобие. Таким образом, во многом, от нас самих зависит, какими будут новые, ответственные машины, которые будут выносить те или иные решения на основе заложенных в их программы этических императивов.

Боишься? -не делай. Делаешь?- не бойся.


2

Re: Этика роботов

Интересная статейка + тебе :)

http://g.bf3stats.com/pc/ykASDAB1/H4Rv3573R.png


3

Re: Этика роботов

вот ето круто



4

Re: Этика роботов

А почему-же он тогда не прыгнет на пути сам?

http://fc02.deviantart.net/fs70/f/2012/044/b/2/fluttershy_sig_by_vinnieofsiftheads21-d4nyxke.png


5

Re: Этика роботов

я задумался, а что бы я выбрал, ни чего не делать и 5 жертв, или подействовать на ситуацию и убить одного.



обработка_______________05%.......

[align=center]Its so easy[/align]


6

Re: Этика роботов

Хм. Ну а если робот- статичная железка. Просто процессор управляющий стрелкой?)

Боишься? -не делай. Делаешь?- не бойся.


7

Re: Этика роботов

А чтобы сделал ты? В такой ситуации?



8

Re: Этика роботов

Ага, аналогичная ситуация. И наверное всё таки правильное решение погубить одного человека нежели их огромное множество. В прочем как показывает практика такие решения принимаются абсолютно инстинктивно на основе накопленных стереотипов и тому подобного и только потом уже происходит осмысление поступка и поиск аргументов в пользу защиты своей версии.
Ну и на тему первого случая хотелось бы добавить, что на участках с уклонами на самом деле существуют специальные стопперы и места для укрытия людей =)

Боишься? -не делай. Делаешь?- не бойся.


9

Re: Этика роботов

как это ужасно, когда стоишь перед выбором



10

Re: Этика роботов

Зачем программировать робота на то что бы толкать человека под вагонетку, если можно прыгнуть самому?
ИМХО, что бы такие роботы в будущем не уничтожили человечество, их нужно програмировать так, как ведут себя самые "правильные" люди. Тоесть так что бы в обоих случаях робот рисковал жизнью что бы спасти человека



11

Re: Этика роботов

Ну на самом деле здесь поставлены не совсем реальные ситуации. В этом то и дело....
Но суть текста заключается в том как запрограммировать робота на такую ситуацию. В прочем робот это всего лишь олицетворение себя самого в данной ситуации, от сюда следует вопрос- Как бы вы поступили в такой ситуации и почему? Ситуация разумеется жёсткая по ограничениям(то есть самому прыгнуть под вагонетку нельзя). Ну дак что, кто бы как поступил и почему?

Боишься? -не делай. Делаешь?- не бойся.


12

Re: Этика роботов

ну, сам бы я не прыгнул, неуспел бы сообразить да и попросту испугался бы.
С одной стороны, лучше угробить одного человека, чем пятерых. С другой, это уже осознанный поступок, и ты какбы убил человека.

[align=center]http://pics.madnesss.net/images/bfi1338196086n.png[/align]


13

Re: Этика роботов

толкнул одного, но вагонетка вопреки ожиданиям не остановилась и проехала дальше, убив остальных пятерых, терзаемый муками совести чел совершает самоубийство, но родственники погибших пятерых оказываются настоящими джигитами и убивают всю семью виновника (дедушка - бабушка - жена и семь детей)

http://img19.imageshack.us/img19/7166/42065792.png


14

Re: Этика роботов

http://www.youtube.com/watch?v=p1bb3_hx82w

http://rghost.ru/18951151/image.png
                                            инфа 100%


15

Re: Этика роботов

это смотря ккой человек во втором. если ёбаный бездушный наркоша на счету которого паруа убийств и тд то лчуше его толкнуть.



16

Re: Этика роботов

Убьеш одного - считай убийство... Умрут 5 - так сложились обстоятельства. Легче всего пожертвовать собой.
[b]Marvelrock[/b] правильно видио разместил, робота нужно учить думать глубже. Сын или множество людей, тут уж совсем свихнуться можно...



17

Re: Этика роботов

сын робота, вот где можно свихнуться

http://img19.imageshack.us/img19/7166/42065792.png


18

Re: Этика роботов

СМП как всегда поднял настроение

http://rghost.ru/38734755/image.png


19

Re: Этика роботов

эм.



20

Re: Этика роботов

Так легко говорить, если стоит твой родной и любимый человек, то на инстинкте пытаешься спасти его, а не чуждых тебе 5 незнакомцев.А роботы на то и роботы , что прежде всего холодный расчет.