Точку зрения «научных панпсихистов» совершенно не разделяет такой широко известный в узких кругах дяденька, как Джон Серл – американский философ из Калифорнийского университета, известный в мире тем, что он придумал «Китайскую комнату». Китайская комната – это мысленный эксперимент, который заключается в следующем.
Представьте себе изолированную комнату, где сидит мужик в телогрейке. Зачем ему телогрейка, я не знаю, возможно, ему просто холодно, поэтому мужик нарядился именно так. Я не думаю, что мы вообще должны уделять какое-то особое внимание его наряду, хотя бы потому что автор просто пошутил насчет телогрейки. Не нужна она! В комнате тепло!
Короче, сидит мужик без телогрейки, а перед ним – толстые тома инструкций. Мужик имитирует собой компьютер, с которым общается китаец, просовывая в комнату через щель листки с иероглифами. Сам мужик китайского не знает. Вообще ни в зуб ногой. Но у него есть инструкции, согласно которым, в ответ на каждый просунутый иероглиф он выбирает ответный иероглиф-другой и просовывает в щель обратно, таким образом поддерживая осмысленный (для китайца) диалог. А сам мужик при этом не понимает смысла беседы. Он просто работает по инструкции, как компьютер по программе (компьютер же не понимает, зачем производит те или иные вычисления, он просто греется, или ноутбук, производящий расчеты, представления не имеет, что его хозяин просто играет в танки, сидя в застиранных семейных трусах перед экраном). Компьютер даже не знает, что такое танки.
Придумав Китайскую комнату, Серл продемонстрировал, что программа, работающая с информацией, мыслить не может, пониманием не обладает и ничего не осознает: она просто действует по алгоритмам. Причем даже тогда, когда эту программу осуществляет априори мыслящее существо, не говоря уж о безмозглом компьютере! При этом внешний китаец, просовывающий внутрь комнаты иероглифы, будет уверен, что беседует с человеком, дающим ему осмысленные ответы, хотя по факту имеет дело с разновидностью философского зомби.
Но Серл не задался почему-то самым главным вопросом: а можно ли вообще написать такие инструкции, которые бы позволили поддерживать осмысленный диалог или для этого нужно понимание смысла иероглифов? Другими словами, вопрос, по сути, сводится к следующему: могут ли инструкции мыслить? Ответ ясен и так, без всяких китайских комнат: алгоритмы сами по себе мыслить не могут, это просто записанная информация, а информация не мыслит. (Позже мы столкнемся с доказанной физиком Пенроузом теоремой о том, что никакой конечный автомат мыслить не может, а
Тем не менее героические попытки ученых создать искусственный разум продолжаются! И самым перспективным в этом смысле направлением сегодня считаются нейросети, то есть машины с такой электронной архитектурой, которая напоминает естественную нейросеть мозга. Чем принципиально отличается искусственная нейросеть от обычного компьютера? Тем, что она не программируется, а обучается: в нее, как дрова в топку, закидывается информация и уже внутри машины как-то обрабатывается в соответствии с весовыми коэффициентами значимости сообщений.
Что из этого уже получилось, мы сейчас увидим на одном довольно впечатляющем примере…
Летом 2022 года случилось сенсационное событие. Инженер Блейн Лемойн, работающий в одном из подразделений корпорации «Google», выступил против собственной корпорации почти с обвинениями и опубликовал внутренние документы компании, пытаясь таким образом донести до общественности следующее: искусственный интеллект (ИИ), построенный компанией, обрел сознание, а посему нуждается в юридической защите как человек. Лемойна уволили, а компания официально заявила, что ее ИИ – просто машина и никаким интеллектом не обладает, она просто умеет имитировать осмысленный диалог.
Какие же внутренние документы опубликовал Лемойн в подтверждение своей правоты? А те самые диалоги человека с машиной, которую зовут LaMDA. Целиком эти диалоги я приводить не буду в силу их неимоверной затянутости, но некоторые характерные отрывки здесь опубликую. А вы по мере чтения не забывайте про тест Тьюринга. Напомню, что английский математик Тьюринг, отвечая на вопрос, может ли машина мыслить, сказал, что если, не видя собеседника, вы поддерживаете с ним осмысленный диалог и не в состоянии определить, человек это или машина, значит, вы разговариваете с мыслящим существом. Так что по мере чтения постоянно держите в голове эту идею Тьюрига. Блейн Лемойн на этом тесте сломался. Итак…
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917