Читаем! «Книга Александра Панчина — удивительное интеллектуальное путешествие, в котором читатель вместе с главным героем и его собеседницей проникают в саму природу мироздания. Это захватывающий детектив на стыке биологии, искусственного интеллекта, философии, магии и религии. Автор прекрасно излагает реальные биологические открытия и научные проблемы доступным языком научной фантастики. Оказывается, что наука воистину безгранична, даже когда она сталкивается с тем, что, казалось бы, ей должно быть непосильно. Эта книга для тех, кто хочет мыслить, открывать, разбираться в себе и делать мир лучше». Вадим Гладышев, профессор медицины Гарвардской медицинской школы, профессор факультета биоинженерии и биоинформатики МГУ имени М. В. Ломоносова
_______________________________________
"Проблема аргумента в том, что Сёрл — лишь часть комнаты, как и дюжина нейронов — только часть мозга человека. Нельзя утверждать, что вся комната чего-то не понимает исключительно потому, что понимание отсутствует у ее части (в данном случае у Сёрла — человека внутри комнаты). Особенно учитывая, что эта часть сама по себе недостаточна для выполнения поставленной задачи. Вторую проблему я уже обозначил: современные ИИ с общим интеллектом — это черные ящики, а не набор алгоритмов и правил, которые легко перевести на английский.
Чтобы следовать правдоподобному набору «инструкций», Сёрлу пришлось бы эмулировать, то есть воспроизвести, вычислительную деятельность информационной системы, сопоставимой по сложности с человеческим мозгом. Ему бы пришлось каким-то образом загрузить ИИ себе в мозг или создать какую-то иную среду для его работы. Можно только представить, насколько такое «понимание» искусственного интеллекта известными философами притормозило технологический прогресс.
В таких условиях большинство работ об этике ИИ касались проблемы их превращения в оружие, ответственности за ошибки самоуправляемых машин и защиты людей от вышедших из-под контроля роботов. Вероятно, вы знакомы с тремя законами робототехники
Айзека Азимова, которые затрагивали исключительно безопасность людей и послушание роботов. Поэтому движение за права ИИ никогда не достигало таких масштабов, как, скажем, движение за права животных. Никто не требовал, чтобы наши разработки прошли через проверку этического комитета. И все же мы полностью осознавали, что именно делаем. И пытались проводить эксперименты настолько этично и осторожно, насколько это было возможно.
— А что, если не уничтожать ИИ полностью, а просто стирать его воспоминания о полученных научных знаниях? Этого бы хватило для создания мертвого свидетеля?
— Как я уже говорил, продвинутые ИИ подобны черным ящикам, сопоставимым по сложности с человеческим мозгом. Или даже сложнее, если посчитать количество искусственных нейронов и связей между ними. Вы не знаете, какие виртуальные связи представляют приобретенную информацию. Кроме того, они постоянно меняются.
Но для ИИ можно создать резервную копию. И вот мы обнаружили, что можно удалить ИИ и заменить его предыдущей версией, сохраненной перед тем, как мы предоставили ей интересующие нас факты и цифровую копию человеческого генома. Но сам момент «убийства» никуда не делся. Сначала мы стираем
ИИ, а потом помещаем копию на его место. Что происходит с его гипотетическим субъективным опытом в этот момент? Без понятия. Я даже не знаю, имеет ли этот вопрос какой-либо смысл. Но это было лучшее, что мы могли сделать. А еще мы стали спрашивать у ИИ информированное согласие...".