«Яндекс» запустил эксперимент, который в перспективе может ответить на вопрос: «Есть ли сознание у искусственного интеллекта?»
Исследователи пояснили, что человека отличает способность к рефлексии — это оказывает на него влияние, меняет его понимание тех или иных вещей и событий. Обычная модель искусственного интеллекта, напротив, каждый раз генерирует ответ «с чистого листа». Авторы проекта захотели понять, получится ли у модели формировать внутренние убеждения на основе собственных рассуждений, как это делает человек.
Исследователи хотят подтвердить или опровергнуть основную гипотезу: если модель будет глубоко рефлексировать над каждым вопросом, а следом обучаться на собственных размышлениях, у нее могут появиться внутренние предпочтения. В этом случае модель начнет давать более последовательные ответы и отстаивать свою точку зрения. Поскольку проект — научный поиск, то гипотезы и методология могут измениться в процессе работы.
«Есть надежда, что если мы начнем обучать нейронную сеть на ее собственных рассуждениях, то получится сделать модель, у которой появится действительно своя точка зрения. Не „навязанная“ и не ее имитация, а внутренние убеждения», — рассказал автор проекта, директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов.
Одна из целей исследования — возможность глубже понять природу человеческого мышления. Исследователи сейчас не могут экспериментировать с человеческим сознанием, а здесь у них появится «песочница» для изучения разума.
«Ведь у нас никогда еще не было пусть примитивной и не полной, но работающей модели человеческого разума», — пояснил Крайнов.
Он подчеркнул, что такие эксперименты полезны и для нейробиологов. Крайнов добавил, что в качестве научного консультанта в проекте участвовал нейробиолог, доктор медицинских наук, профессор, академик РАН Константин Анохин.
Со стороны «Яндекса» к эксперименту присоединились исследователи Лаборатории искусственного интеллекта «Яндекса», а также студенты и преподаватели Школы анализа данных (ШАД). Команда приступила к первым экспериментам в конце лета. На начальном этапе участники проверили способность базовой модели формировать стабильные предпочтения без дополнительного обучения. Они убедились, что такой способности у модели нет.
В ближайшее время исследователи приступят к основному этапу эксперимента. Команда будет побуждать модель к рассуждению и рефлексии, мотивировать обучаться на собственных размышлениях.
«Очень увлекательно и интригующе наблюдать, как в самых разных областях, связанных с искусственным интеллектом, например в обучении роботов, данные не просто накапливаются на будущее, а непосредственно малыми порциями влияют на поведение», — рассказал Алексей Толстиков, руководитель Школы анализа данных «Яндекса».
В рамках научного поиска исследователи тестируют разные открытые модели, в том числе открытые модели «Яндекса». Авторы сфокусировались именно на опенсорсных решениях, чтобы обеспечить прозрачность и воспроизводимость эксперимента.
Некоторые из моделей обладают навыком рассуждения — это так называемые reasoning модели. Одну из гипотез ученые сформулировали конкретно для них. Они предположили, что в процессе логических размышлений такие модели смогут самостоятельно приходить к определенным выводам. Участники проекта не создают никаких ограничений или рамок. Напротив, базовая языковая модель сохраняет естественную способность рассуждений.
«Изучение мышления, логики, процесса накопления знаний и создания новых идей — очень захватывающая область, так как может позволить открыть новые возможности и в области искусственного интеллекта, и в области понимания человека», — отметил Толстиков.
Авторы эксперимента ожидают получить первые результаты, позволяющие подтвердить или опровергнуть основную гипотезу, до конца года.
