– Машина должна подчиняться! – воскликнул Каляев. – А это… это не лезет ни в какие ворота. Она не слушает человека, спорит – и ваши сотрудники это поощряют.
– У вас есть дети, Михаил Викторович? – спросил Смирнов; чем-то неуловимым – напором во взгляде, сердитым прищуром? – инспектор напоминал в эту минуту академика Володина.
– Это не ребенок: это искин! – Каляев убрал планшет. – У искина далеко не детские обязанности и совсем не детские возможности. С ним нельзя обращаться, как с ребенком. И как со взрослым нельзя, потому что это – да как вы не понимаете?! – не человек, это, искин! А вы такого наворотили, что сам Володин голову сломит, пока разберется, что под этой титановой «черепной» коробкой творится. И как можно с
– Вы техинспектор; а я двадцать пять лет руковожу людьми, Михаил Викторович. – Смирнов посмотрел на Каляева насмешливо.– Они должны подчиняться! Но они не слушают. Спорят. Поступают так, будто в их черепных коробках один тараканий помет. Я видел множество аварий: в девяти из десяти из них не обошлось без человеческого фактора. И все же мы работаем, успешно выполняем задачи – когда нам не мешают. Машины небезопасны, но они надежнее людей: в чем-то это даже обидно… Наши искины – не исключение: они надежнее нас самих! Возможно – хоть и маловероятно! – что в конкретном случае была допущена какая-то программная ошибка: тогда она будет обнаружена и исправлена. Но ваше возмущение самим фактом существования машин, подобных нашим, не имеет под собой оснований. Оно сродни суеверию.
– Только недавно Валентина втолковывала мне, что суеверия есть форма протонаучного знания и к ним не следует относиться пренебрежительно. – Каляев неприятно усмехнулся. – А вы только меня за дурака держите или генштаб ВКС тоже?
– Что, простите?.. – Смирнов от неожиданности привстал со стула.
– Вы очень не хотите заострять на этом внимание, но Иволга и все искины проекта ИАН – еще какое исключение, Всеволод Яковлевич, – мрачно сказал Каляев. – У обычных антропоморфных искинов, вне зависимости от их когнитивного уровня, в абсолютном приоритете принцип ненанесения вреда и безопасность человека: так называемый первый закон робототехники. Он в них прописан программно и обеспечен аппаратно: не допускается ни малейшего риска. Но искины ИАНа рассматривают события в их временной разверстке и осуществляют вероятностную оценку, прокладывают маршруты от безопасной земли по экстремальным воздушным трассам. Даже моих невеликих познаний хватает на то, чтобы понять – исходя из принципа ненанесения вреда, искины должны попросту отказаться обеспечивать опасный полет; из расплывчатых формулировок в отчете Белецкого можно сделать предположение, что именно эту лазейку использовал Волхв, чтобы не выполнять приказ Абрамцева, который ему не понравился. И все-таки они летают. Значит, абсолютного приоритета «ненанесения вреда» нет. А что вместо него?
– Вы лучше информированы, чем я думал… и чем мне хотелось бы, – со вздохом признал Смирнов, садясь. – Но ответ на ваш вопрос проще, чем вы, вероятно, думаете. Используется принцип пользы. Он организован иерархически и, как вы верно выразились, развернут во времени: безопасность «вообще» против краткосрочной безопасности «здесь и сейчас», безопасность и процветание общества против безопасности пилота, нужды всего человечества против нужд одного человека, будущее против настоящего. Человек обычно выбирает то, что ближе. Тогда как наши искины лишены этого недостатка.
– Красиво звучит. Но, на деле, то, о чем вы говорите – просто количественная оценка? Пять горняков, которым необходима медпомощь, против одного пилота.
– Количественная оценка, программно прописанный алгоритм: все, как вы любите, – сказал Смирнов. – Вы хорошо изучили историю базы, так что, вероятно, осведомлены об имевших место в прошлом инцидентах. Да хоть бы об аварии экипажа инструктора Голованова: ее уже вспоминали в связи с обстоятельствами гибели Абрамцева.
Каляев кивнул.
– Тогда погибли оба летчика, – продолжил Смирнов. – Но Голованов пострадал за свою самонадеянность и дурость, тогда как летевший с ним курсант – за храбрость и ответственность; и за самонадеянность тоже – куда же без этого. Он обязан был катапультироваться, но не захотел бросить отключившегося дурака-инструктора. Думал, что сумеет спасти машину, несмотря на отсутствие опыта. Не имея оснований рассчитывать на успех, против одной жизни он поставил на кон две, и сверху – счастье своей жены и малолетнего сына. Это был мужественный поступок. Но неверный. Иволга не допустит подобной ошибки – в том было бы ее достоинство, но, если вы не забыли – она лишь дает подсказки: окончательное решение по-прежнему всегда за человеком. Самовольно Иволга может только активировать хеллоу-систему: открыть дверь, выпустить трап перед посадкой пилота в кабину и пожелать ему доброго утра.
– А подвижные элементы и рука-манипулятор на имитационной установке? – спросил Каляев.