середу, 21 листопада 2012 р.

Не стреляй, робот


 

Статья на Хабре: Правозащитники призывают принять Первый закон роботехники

Как известно Айзек Азимов давным-давно сформулировал 3 закона для роботов.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам. 

Когда-то это читалось весело и увлекательно, казалось таким фантастическим, а теперь вот задумались. Наверное, время пришло.

К счастью, пока не существует роботов, способных поражать противника в автономном режиме, — только под управлением оператора. Однако, технологии вплотную приблизились к опасной точке, считают некоторые эксперты. 

Например, модель SGR-1 производства Samsung Techwin (на фото) используется для охраны демилитаризованной зоны на границе с Северной Кореей. Оснащение — 5,5-миллиметровые пулеметы и 40-миллиметровые автоматические гранатометы. Робот функционирует в полуавтоматическом режиме, стреляет только по команде оператора. 


Вот этот робот в действии - видео (англ.)
Неожиданно так выскочила реклама известного бренда в конце) Оказывается Самсунг не только телефоны-мониторы клепает, но еще и пулеметики. Ну здесь главное, чтобы не на Windows.
Очень похоже на игрушечную войнушку, но солдатики-то настоящие. В том и проблема.



А вот еще игрушечный самолетик.
Почему игрушечный? Потому что беспилотный, и в руках какого-нибудь солдафона вполне годиться, чтобы поиграть в войну. И пофиг, что ракеты настоящие.

 
По мнению специалистов отдела вооружений Human Rights Watch, армия США нарушила конвенцию в отношении как минимум одного вида вооружений. Речь идёт о беспилотном летательном аппарате Predator, который оснащается ракетами Hellfire. 

Вот, что предлагается:

Статья 48
Основная норма

Для обеспечения уважения и защиты гражданского населения и гражданских объектов стороны, находящейся в конфликте, должны всегда проводить различие между гражданским населением и комбатантами, а также между гражданскими объектами и военными объектами и соответственно направлять свои действия только против военных объектов.

Статья 51
Защита гражданского населения

4. Нападения неизбирательного характера запрещаются. К нападениям неизбирательного характера относятся:
a) нападения, которые не направлены на конкретные военные объекты;
b) нападения, при которых применяются методы или средства ведения
военных действий, которые не могут быть направлены на конкретные военные объекты; или
c) нападения, при которых применяются методы или средства ведения военных действий, последствия которых не могут быть ограничены, как это требуется в соответствии с настоящим Протоколом;
и которые, таким образом, в каждом таком случае поражают военные объекты и гражданских лиц или гражданские объекты без различия.

Вопрос в том, могут ли роботы, при достаточном развитии технологий в будущем, хотя бы теоретически соответствовать статьям 48 и 51(4). Всё-таки, отличие гражданского лица от вооружённого противника — это одна из фундаментальных проблем. 

Есть разные мнения на этот счёт. Одни эксперты считают, что сильный ИИ (искусственный интеллект) всё-таки сможет принимать такие решения. Другие говорят, что искусственный интеллект по определению на такое не способен, потому здесь требуется в том числе оценка намерений человека и его эмоционального состояния. В качестве примера можно привести мать, которая бежит к своим детям и кричит, чтобы они не игрались с игрушечными автоматами возле солдат. С точки зрения системы компьютерного зрения, налицо два вооружённых противника и третий, который приближается с криком.

Ну и как, по вашему, робот поступит в этом случае?

http://sergey-rastafara.blogspot.com


Немає коментарів:

Дописати коментар