Роботы: несколько слов о криминале и любви
Роботы становятся все разумнее; они могут уже сами многому учиться, подобно людям или животным. Недавно немецкий философ Андреас Маттиас призвал даже разработать своего рода уголовное законодательство для этих машин: они должны отвечать за причиненный ими вред. Вот что он сказал в интервью электронной версии журнала Spiegel (фрагменты беседы).
Андреас Маттиас: Вообще говоря, нет. Я сам несколько лет занимался программированием в Кассельском университете. Сделать подобное заявление меня побудил не страх перед роботами, а тот факт, что машины играют все большую роль в нашем обществе, поскольку начинают самостоятельно принимать решения. И если они допускают ошибки, то нужно заранее обговорить, кто будет отвечать за их промахи.
— Но машину ведь сделал человек? Почему бы не наказать программиста, разработавшего ее?
А.М. Нет, это в семидесятые годы мы могли думать, что раз в машину вложили определенную программу, она будет действовать строго в ее рамках. За эти десятилетия программирование изменилось. Сегодня вместо четких, конкретных команд часто используются так называемые нейрональные сети, созданные по примеру структур, существующих в головном мозге человека. Подобная сеть способна к самообучению, и мы уже не можем судить о том, чему научилась машина.
Она сама обучается, тренируется — она выходит за рамки вложенных в нее программ. От человека же она получает только определенный багаж знаний.
— Вы рассуждаете так, словно задались целью избавить производителей роботов от необходимости выплачивать огромные суммы в счет компенсации за причиненный ущерб.
А.М. Я исхожу из того, что наша правовая система должна быть справедливой. Для меня справедливость — это когда кто-то несет ответственность за поступок, совершить или не совершить который было всецело в его власти. Производители роботов уже не могут досконально контролировать выпущенные ими машины. Так что взваливать на них ответственность за все совершенные роботами поступки было бы несправедливо. Возьмите, например, марсоход, который благодаря вложенному в него программному обеспечению сам учится маневрировать. Если, например, в тот момент, когда связь с Землей нарушена, он затеет какой-то маневр и въедет прямиком в яму, то стоит ли винить тех, кто разрабатывал программное обеспечение?
— Почему нет? Может быть, они просто написали плохую программу?
А.М. Я не думаю, что можно создать машину, которая не допускала бы вообще никаких ошибок. Мы, люди, тоже их делаем, и сами же отвечаем за это. Мы не можем требовать, чтобы спрашивали с наших учителей, с родителей, а не с нас, — с определенного возраста мы несем ответственность за все, что натворили. Вот так же обстоит дело и с машиной.
С какого-то момента ее производитель уже не может отвечать за то, чему она научилась сама. Ведь она теперь уже не та, что была в момент завершения заводской сборки.
— Вы постоянно говорите об ответственности. Что же, по-вашему, надо делать с машиной в том или ином конкретном случае?
А.М. Она могла бы сама оплатить причиненный ей ущерб. Ведь она выполняет какую-то работу, значит, часть заработанных ей средств можно перевести на страховой счет, из которого и будет выплачена компенсация.
— Вы говорите также об уголовном законодательстве для роботов. Как их предлагаете наказывать?
А.М. Перепрограммировать!
— Объясните подробнее.
А.М. Главные цели нашего уголовного законодательства — это, во-первых, перевоспитание преступника, а во-вторых, его изоляция на некоторый срок. Применительно к машине это означает, что нужно просто улучшить ее программу. Наказывать машину гораздо эффективнее, чем человека. Никто не гарантирует вам, что преступник после пяти лет, проведенных в заключении, выйдет на свободу совершенно перевоспитавшимся. Машина же после перепрограммирования уж точно не допустит прежних ошибок. Так что нам не нужно сажать робота под арест — надо всего лишь подрегулировать его программное обеспечение.
— Вы также утверждаете, что к роботам, способным чему-либо учиться, со временем начнут относиться как к неким существам. Может быть, прикажете еще наделить их и избирательными правами? А кстати, можно будет отправить роботов на металлолом?
А.М. Время для подобных разговоров пока еще не пришло, все это — темы научной фантастики. Мы же для начала должны добиться того, чтобы автономно действующие машины отвечали за свои поступки. Какими правами будут они наделены, это — вопрос будущего.
— И все же какими конкретными правами можно было бы наделить роботов?
А.М. Я могу представить себе разве что право на ремонт и профилактическое обслуживание. Нельзя требовать от роботов ответственности за совершенные ими проступки и в то же время допускать, чтобы они приходили в негодность, начинали «барахлить». Но, в принципе, мы пока еще очень далеки от того, чтобы наделить роботов правом на жизнь.