Сильный искусственный интеллект против слабого

Гипотеза о том, что машины можно запрограммировать для демонстрации интеллектуального поведения, известна как слабый искусственный интеллект и считается нормальной (до определенных пределов) большей частью человечества. Однако предположение, что в машинах можно запрограммировать реальную мыслительную деятельность, то есть фактически сознание, что известно под названием сильного искусственного интеллекта, широко оспаривается. Оппоненты сильного искусственного интеллекта утверждают, что машина по своему существу отличается от человека и поэтому никогда не сможет чувствовать любовь, отличать правду от лжи и думать о себе так же, как это делает человек. Защитники же сильного интеллекта считают, что человеческий разум составлен из небольших компонентов, которые по отдельности не являются людьми и не обладают сознанием, но все вместе образуют разумного человека. Почему же, спрашивают они, то же самое невозможно с машинами?

Проблема с разрешением спора о сильном искусственном интеллекте, как можно понять из текста, состоит в том, что разум и сознание — это внутренние характеристики, которые невозможно распознать явно. Как говорил Алан Тьюринг, мы считаем других людей разумными, потому что они ведут себя разумно — хотя мы не можем увидеть их внутреннее ментальное состояние. Тогда готовы ли мы допустить подобную самостоятельность мышления машины, если она выказывает внешние признаки разумности? Почему да? Почему нет?

Можно разгадать загадку потенциальной реакции человечества на машины, интеллект которых сравним с нашим, рассмотрев отношение общества к IQ-тестам в середине двадцатого века. Эти тесты должны были выявлять уровень интеллекта детей. Дети в США зачастую классифицировались по результатам тестов и в соответствии с ними направлялись на обучение по соответствующим образовательным программам. Таким образом, возможность обучаться была у тех детей, которые хорошо справились с тестом, а дети, получившие низкие оценки, направлялись на корректирующие программы обучения. Вкратце, если есть шкала, по которой можно измерить уровень интеллекта человека, то общество начинает пренебрегать возможностями тех, кто оказался на нижнем конце шкалы. Что же будет делать общество, если «интеллектуальные» способности машин станут сравнимыми или хотя бы будут выглядеть сравнимыми с человеческими способностями? Будет ли общество избавляться от тех представителей, которые показали себя «глупее» машин? Если да, то каковы будут последствия для этих членов общества? Должно ли человеческое чувство собственного достоинства зависеть от того, насколько человека можно сравнить с машиной?

Мы уже начали замечать, что интеллектуальной мощи людей в определенных областях противопоставляются способности машин. Сейчас машины могут победить экспертов в шахматах, компьютеризированные экспертные системы могут давать медицинские советы, а эффективность портфелей, которые формируют простые программы, часто превосходит результативность портфелей специалистов по инвестициям. Как подобные системы влияют на самомнение вовлеченных в проблему людей? Что произойдет с самооценкой человека, если машины начнут превосходить его все в новых и новых областях?

Многие утверждают, что интеллект, демонстрируемый машинами, по своей сущности всегда будет отличаться от человеческого разума, так как люди являются биологическими индивидуумами, а машины — нет. Поэтому, считают они, машины никогда не смогут воспроизвести процесс принятия решения человеком. Машины могут придти к тем же выводам, что и люди, но они будут сделаны на основе совершенно других знаний и схем, чем у людей. До какого же предела простираются различия между этими видами разума и будет ли этично для общества следовать путями, предложенными не человеческим разумом?

Мы завершим обсуждение следующей цитатой из книги Джозефа Вайзенбау-ма «Computer Power and Human Reason», в которой он выступает против непроверенных приложений компьютерных технологий:

Компьютеры могут выносить судебные решения, компьютеры могут делать психиатрические заключения. Они могут подбрасывать монетку куда более изощренными способами, чем самый настойчивый человек. Дело в том, что им не следует задавать подобные задачи. Временами они могут даже находить «правильные» решения, но всегда и обязательно путями, с которыми не сможет согласиться ни один человек.

Много споров велось и ведется о «компьютерах и разуме». Я хочу сказать, что подобные исследования не являются ни технологическими, ни даже математическими; они относятся к вопросам этики. Такие проблемы нельзя решать, задавая вопросы, которые начинаются с «можно». Ограничения приложений компьютеров всегда необходимо формулировать в терминах моральных обязательств. Даже элементарная интуиция говорит нам о том, что если мы не обладаем возможностями сделать компьютеры умными, мы не должны давать им задачи, требующие ума.

ТЕОРИЯ ВЫЧИСЛЕНИЙ

В этой главе мы обсудим, что компьютеры умеют делать и что им недоступно. Мы увидим, как простые машины, например машина Тьюринга, применяются для поиска границы между задачами, которые машины могут решить, и задачами, неподвластными им. Также мы рассмотрим определенную задачу, известную как проблема останова, решение которой находится за пределами способностей алгоритмических систем и, следовательно, вне диапазона возможностей сегодняшних, да и завтрашних компьютеров. Кроме того, мы узнаем, что даже среди задач, которые могут быть решены машинами, есть несколько проблем, решение которых настолько сложно, что с практической точки зрения оно невозможно. В завершение мы обсудим, как эту сложность можно использовать в конструировании систем шифрования с открытым ключом.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: