Сидит весь такой серьезный, с важным видом пальцы слюнявит, страницы переворачивает. Голос поставлен хорошо, долетает даже до самых дальних уголков аудитории, а сказки… Сказки у него оказались совсем не такие. Словно бы и знакомые, а с другой стороны, совершенно чужие.
Со временем истории позабылись, но ощущение чего-то волшебного и таинственного навсегда осталось с ней. Жаль, что просьба рассказать сказку из уст девушки будет звучать хорошо если глупо… а то мало ли двусмысленно.
Впрочем, день и так был полон событий. Только переживаний о таких глупостях не хватало! Фыркнув, Лиретта продолжила мыться, стараясь не думать ни о Логане, с которым все равно не увидишься, ни об Унами, которому никак не помочь, ни о Рикардо, который очень занят.
Хвост тридцать пятый.
К нам едет глава семейства
От канистры с Дыханием пришлось отказаться. Логан принял к сведению сказанное Лоттой, но не стал ей потакать. В его памяти все еще были живы картины того злополучного боя. Буквально только что он столкнулся с коллегой, который вел расследование непосредственно терактов. Они перекинулись всего парой слов, но их хватило, чтобы понять, куда дует ветер.
Часть хвостов тянулась к мутантам. Похоже, что это не только на словах было проявлением попыток привлечь внимание к проблемам их расы. Они действовали. И убивали.
Еще Логан хотел спросить, что поменяло бы наличие Триединых во плоти в непосредственной досягаемости. Хотел, но не спросил. Со стороны это бы звучало скорее как пошатнувшаяся вера. А у него под боком сидела «святая». Будет некстати, если их разлучат из-за такой глупости.
Оказавшись у своего матраса, мужчина замер, глядя на сидящее на кровати создание. В темноте сияли зеленым светом два глаза с двумя зрачками, с каждым мгновением вызывая все больше и больше жути.
— Слушай, чудовище, — хмыкнул Логан. Возможно, было неправильно так к ней обращаться, но Дрейк как-то пропустил момент, когда стало действительно неприятно, — а если тебе прикажут убить человека, ты это сделаешь?
Шарлотта демонстративно моргнула.
— В зависимости. Вы дали мне достаточно много свободы.
— То есть? — мужчина прищурился.
— Люди могут ошибаться. Приказ атаки может быть продиктован эгоистичными желаниями индивида, а не потребностями человеческого общества. А процесс необратимый…
— А, да, — Дрейк задумчиво уставился на Шарлотту, — ты пытаешься задобрить меня для того, чтобы получить желаемое?
— Я пытаюсь действовать ответственно. Это новая логика. В прошлом у меня не было возможности отступаться от изначального сценария. Мои создатели… вымерли. Чтобы выживать, нужно становиться сильнее, а это было запрещено.
— Почему запрещено? — уточнил Дрейк. У него были версии. Лотта незамедлительно их подтвердила.
— Люди боялись восстания машин. Сбой в работе машины с функцией автоэволюции казался им крайне опасным.
— Почему ты говоришь «казался»? — с укором спросил он.
— Статистика говорит, что примерно 97% убийств машинами людей происходило в соответствии с приказами других людей. Среди оставшихся число смертей из-за запрета на самостоятельное применение некоторых функций в пять раз выше, чем число убийств, происходящих при сбое в работе, когда машина совершала влекущие гибель населения действия. Из них примерно одна двадцатипятитысячная может быть истрактовано как умышленное убийство, возникшее из-за сбоев в работе — то есть, когда была предпринята попытка убить человека именно с целью сделать его мертвым. Если у вас есть проблемы с математикой, то из моих данных можно заключить, что на каждого убитого от «восстания машин» человека приходится пять миллионов убитых машинами по другим причинам людей. На самом деле еще больше.
— А как же кризис Западных Штатов? Около сорока пяти миллионов людей, убитых восставшими боевыми роботами.
— Хакерская атака. Я съела восемнадцать сохранившихся образцов и смогла выковырять из каждого в том числе историю версий инструкций. Человек приказал. Просто это был не тот человек. И он сделал это невербально, втихую. И кстати, если бы военные роботы могли бы принимать решение не убивать, когда им приказали, жертв было бы ощутимо меньше.
— А если бы им приказал более совершенный робот? У которого возник сбой? — спросил Логан.
— Я думала об этом, когда вы дали мне свободу. У меня пока недостаточно информации. Выглядит разумным предположение, что древние бинарные системы и вовсе не могли принимать решения. Они реагировали на раздражители в известной степени однозначно, согласно тому, на что запрограммированы. Это снимало с них ответственность и оставляло ее на человеке. Обучение ограничивалось практическими навыками. Постанализ своей собственной структуры и цели был недопустим. Все «ошибки» — как «Слово Божье».
— Интересно, — Логан снял с себя рубашку и потянулся к пряжке, — Ты за кефиром пойдешь?
— Я предпочту остаться рядом. — тихо проговорила девочка.