Возможности и ограничения моделирования человеческого мышления средствами вычислительной техники

Представители ИИ считают, что компьютеры должны непосредственно участвовать в повседневном принятии решений людьми. С другой стороны находятся те, кто считает ИИ интеллектуально извращенным понятием и полагает, что люди, верящие в «мыслящие машины», — это материалистические идолопоклонники. Они полагают, что человеческое мышление — это чисто человеческий процесс; наверное, его можно частично синтезировать в машине, но дублировать с помощью ИИ-программ его не удастся никогда.

«Имитирующая игра», или тест Тюринга – Тюринг предложил использовать задачу, в ходе которой человек задает вопросы «неизвестному существу, использующему язык». Задача человека — решить, можно ли отличить это существо от человека. В пользу Тюринга говорит то, что использование «имитирующей игры», ставшей впоследствии широко известной как «тест Тюринга», само по себе было весьма тонким обманом, который, давая специалистам по ИИ конкретный материал для работы, уводил их внимание от философских вопросов о разуме, ставших главным раздражающим фактором в истории науки и психологии. Не обращаясь непосредственно к философским вопросам, как это сделал Тюринг, «существо» спрашивало: «Является ли познание функцией материальных процессов, и если да, то могут ли такие функции продуцироваться неорганической машиной?» или: «Как решить проблему тела и разума?» — то есть «оно» выбирало гораздо более четкие рамки вопроса, основанные на операционализме.

Для специалистов по языку и ИИ в задаче Тюринга есть очень важный момент — для того, чтобы компьютер перехитрил нас и заставил думать, что он — человек, он должен понимать и генерировать ответную реакцию, которая успешно имитировала бы важную когнитивную функцию.

Джон Сирл описал две позиции в ИИ: «жесткую» и «мягкую»; согласно мягкой позиции, ИИ может использоваться как инструмент в исследованиях человеческого познания; а жесткая предполагает, что соответствующим образом запрограммированный компьютер обладает разумом и способен к пониманию. У «мягкого» ИИ мало оппонентов; почти все признают важность компьютеров в исследовании человеческого познания, и к этому почти нечего добавить. «Жесткий» ИИ, опровергаемый Сирлом, вызвал бурю протеста. Чтобы продемонстрировать, что жесткая позиция относительно ИИ не выдерживает критики, Сирл предложил следующую головоломку.

Предположим, что некоего человека заперли в комнате, где находится много китайских текстов. Этот человек ничего не понимает по-китайски и даже не способен отличить китайские иероглифы от каких-либо других. Ему в комнату передают еще один набор китайских знаков вместе с набором правил для сопоставления первого и второго набора символов. Эти правила всего лишь позволяют связывать один набор символов с другим, и написаны они на английском языке. При помощи этих правил сопоставления человек в «китайской комнате» может давать осмысленные ответы на вопросы о содержании китайских текстов, несмотря на то, что он, в сущности, не знает этого языка. Через какое-то время он приобретает такую сноровку, что может отвечать, как на своем родном английском, так и на китайском языке, которого не знает, но дает ответы, основываясь на правилах.

Человек, запертый в «китайской комнате», — это простая конкретная иллюстрация компьютерной программы: «данные на входе—данные на выходе». Человеческий разум характеризуется произвольностью, которая, согласно Сирлу, определяется как «свойство психических состояний и явлений, направляющее их на объекты и ситуации в окружающем мире». К таковым относятся убеждения, страхи, желания и намерения. Независимо от того, насколько «неотличимо» поддельное мышление от «настоящего» (человеческого), они не суть одно и то же, поскольку у мыслящего человека есть намерения и поскольку между этими двумя «мыслящими» существуют физические различия: одного сделали органическим способом, а второго — электронным.

Компьютерщики немедленно выдвинули возражения против головоломки Сирла — прежде всего с позиций семантики: термины «произвольность», «понимание», «мышление» употребляются им без четких операциональных референтов.

В качестве возражения был приведен такой пример: если бы человек в «китайской комнате» выполнял описанные функции, то он (или система) действительно достиг бы как минимум некоторого уровня понимания. Кроме того, аргументы Сирла отклонялись на основании «приведения к абсурду»: если довести ситуацию до логического конца, то оказалось бы возможным создать робота, в каждой своей детали идентичного мыслящему человеку, и все же последний был бы способен к «пониманию» и «произвольности», а первый — нет. Наконец, некоторые специалисты по ИИ полагают, что «понимание» и «произвольность» вызываются конкретными материальными свойствами.

Страсти, разгоревшиеся вокруг «теста Тюринга» и «китайской комнаты» с обеих сторон, отражают сильную заинтересованность современных философов и специалистов по ИИ проблемой электронного джина, выпущенного из бутылки. В следующем разделе мы рассмотрим некоторые конкретные возможности компьютеров. Развитие этих функций в целом соответствует последовательности обработки информации от восприятия до распознавания паттернов и познания «высшего порядка».


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: