Hi-Tech

Увольнение Сэма Альтмана попытались связать с «угрозой человечеству» от созданного им ИИ

Анонимные источники Reuters утверждают, что перед провалившимся увольнением Сэма Альтмана из OpenAI совету директоров пришло письмо от разработчиков, в котором они предупреждали: последние достижения компании якобы угрожают человечеству. В то же время с научно-технической точки зрения заявления этих анонимов выглядят не очень правдоподобно.

Информационное агентство Reuters опубликовало материал, основанный на сообщениях двух источников из OpenAI, пожелавших остаться анонимными. Они утверждают, что накануне увольнения Сэма Альтмана (уже вернувшегося на свой пост) совет директоров компании получил письмо от разработчиков по проекту Q*. Это один из закрытых перспективных проектов OpenAI, посвященный созданию так называемого сильного ИИ. Под этим понимают интеллект, сравнимый с человеком в большинстве сфер деятельности. На сегодня его не существует, а ряд исследователей полагают, что таковой и не нужен, ибо в случае реализации он может уничтожить человечество как нежелательного конкурента.

Общий тон публикации Reuters подводит читателя к мысли — хотя это не утверждается напрямую, — что такое письмо могло вызвать опасение у директоров, отчего те и приняли внезапное решение об увольнении Альтмана.

В то же время детали самого письма — которое Reuters не видело и описывает со слов своих анонимных источников — вызывают сомнения в такой интерпретации причин увольнения. Дело в том, что проект Q* затрагивает достаточно узкую, специализированную, проблему — математические вычисления с помощью нейросети — аналога ChatGPT, только работающей не со словами, а с математическими операциями. Авторы письма утверждают, что их нейросеть научилась таким операциям на уровне школьника.

Почему это вообще важно? В мире разработчиков больших языковых моделей типа ChatGPT распространено (но никем не доказано) предположение, что создание модели, которая сможет хорошо считать, в основном решит вопрос с сильным искусственным интеллектом. То есть подобное ПО сможет заменить человека практически в любой области.

Реальная история Сэма Альтмана куда прозаичнее, чем разработка ИИ, способного угрожать каждому человеку на Земле / © Wikimedia Commons

Напомним предысторию: до ChatGPT способность программного обеспечения работать со словами была угнетающе низкой (в лучшем случае на уровне учащегося не лучшей средней школы). Чтобы добиться прорыва, OpenAI во главе с Сэмом Альтманом использовала принцип китайской комнаты — в виде нейросети, тренированной так, чтобы выбирать следующее слово в выдаче человеку-собеседнику на основе подражания подобной выдаче, когда-то созданной реальными людьми.

Иными словами, ChatGPT и его клоны не понимают ничего из обрабатываемой информации — они просто статистически предсказывают, каким будет следующее слово в их выдаче, используя для этих предсказаний статистику из своей обучающей выборки. Естественно, в итоге подобная выдача по одному и тому же вопросу может отличаться: ведь такое ПО просто «бросает кости» в заданном «обучением» диапазоне значений, а не думает.

В математике этот подход не срабатывает: в большинстве случаев в одной задаче только один правильный ответ. Поэтому тут аналоги ChatGPT систематически дают ошибки. В рамках проекта Q* процент этих ошибок слегка снизили, доведя его, согласно анонимным источникам Reuters, до уровня ученика начальной школы.

Если эти тезисы СМИ верны, то письмо озабоченных разработчиков OpenAI могло серьезно напугать разве что людей, не очень хорошо разбирающихся в теме. Во-первых, уровень младшеклассника в математике не стоит переоценивать. Во-вторых, обычное алгоритмическое программное обеспечение (до нейросетей) научилось считать намного быстрее и точнее лучших ученых-математиков еще в прошлом веке.

Это тоже вызывало беспокойство у современников (достаточно вспомнить «Скайнет» в массовой культуре), но только у тех, кто был бесконечно далек от понимания реальных принципов работы таких систем. То есть того, что они лишены собственных побудительных мотивов и разума как такового — лишь выполняют заранее заложенные в них людьми операции.

Аналогичным образом современные нейросети и большие языковые модели полностью лишены сознания и побудительных мотивов. Поэтому опасения за будущее человечества из-за риска вытеснения таким ПО подобны опасениям вытеснения людей «Скайнетом» (или арифмометрами). Их трудно воспринимать серьезно.

Есть те, кто считают иначе. Например, Илон Маск оценил публикацию Reuters как вызывающую глубоко беспокойство. Однако Маск никогда не отвечал на вопрос, как именно системы, лишенные сознания и мотивов, могут угрожать человечеству. Параллельно он активно продвигает в медиа конкурента ChatGPT от OpenAI — собственную большую языковую модель Grok. Это делает затруднительным некритичное принятие его позиции по OpenAI как полностью корректной. Не вполне прозрачны и мотивы анонимов-источников из OpenAI: нельзя исключить их личную заинтересованность в оправдании неудавшегося увольнения Альтмана.

Комментарии

  • Вместо того, чтобы фантазировать на тему захвата Скайнетом человечества, это доморощенное руководство OpenAI лучше бы подробно объяснило обывателям и Маску в том числе, что такая ситуация в реальности в принципе не возможна.

    • Комментарий удален пользователем или модератором...

      • ראובן פיאטיגורסקי, ChatGPT отрицает намеренья захватывать мир. Если вы боитесь что ИИ захватит мир, а не корпорации с помощью ИИ его захватят, то боятся нечего - мир захватят корпорации.
        "искусственному интеллекту нет собственных желаний, целей или мотиваций, включая захват мира..
        Фактически, крупные обсуждения, связанные с развитием и использованием искусственного интеллекта, касаются вопросов этики, безопасности, прозрачности и контроля за его применением, вместо обеспокоенности его фиктивными амбициями."

        • Зато все эти гпт очень даже неплохо научились обманывать юзеров. Ну это так к слову 😁

          • Иван Колупаев, но если их спросить: это корректная информация, - они честно отвечают: нет, на самом деле, эта информация не соответствует действительности))

          • Все критяне лжецы (с) На самом деле это большая проблема если в простых случаях вы сами способны догадаться что ИИ ездит вам по ушам или хотя бы усомниться в ответе, то для случаев сложных приходится использовать другую нейросеть которая перепроверяет информацию и удаляет "глюки"

          • И. Колупаев, так и есть. Поэтому, я не понимаю истерик типа "нейросети заменят специалистов" или "нейросети будут делать работы за студентов и школьников". Будут, конечно) но не верно))

      • Да, и фамилия Альтман на самом деле расшифровывается как ALTruistic MAN, т.е. "Альтруист".

  • Как можно создать "сильный" ИИ, если слабого ещё и в проекте нет? Нравятся мне эти маркетолухи с их подменами понятий и замыливаниями терминологии. Интересно, были ли такие истерики по поводу захвата человечества экселем из 95 офиса там или фотошопом 1.0 ) не помню, но и не до этого мне тогда было))

    • Татьяна Кальницкая, возможно и были. Исчезла же из финансовых департаментов с появлением компьютеров и пресловутого excelя профессия "калькулятор".

      • Shelove517, ну да) может, они и истерили)

  • Вы, Александр, вроде бы рационалист, но как дело доходит до ИИ, превращаетесь в оголтелого иррационалиста. Ну, нет никакой разницы между "разумом" и "китайской комнатой". С точки зрения внешнего наблюдателя, если они выдают статистически одно и то же - они одно и то же. Принципиально обе нейросети ни чем не отличаются. Если шимпанзе обладает интеллектом пятилетнего ребенка, а современный ИИ - трехлетнего, то это чисто количественный вопрос. Просто шимпанзе для достижения человеческого уровня потребуется несколько миллионов лет, а ИИ - лет10-20. И у ИИ нет естественных ограничений вычислительных мощностей, в отличие от нашего мозга. Т. о. ИИ просто обречён стать умнее нас, скорее всего, уже в этом веке.

    • Zhe Sh, "Ну, нет никакой разницы между "разумом" и "китайской комнатой"

      Разница между разумом и китайской комнатой вполне осязаема -- китайская комната не понимает, чем оперирует, поэтому не может открыть не то что ОТО, но и в принципе ни одной новой научной гипотезы предложить не может. И это просто одна иллюстрация из многих.

      Если это "никакой разницы" -- то я могу только развести руками.

      "С точки зрения внешнего наблюдателя, если они выдают статистически одно и то же - они одно и то же."

      Вы считаете, что с точки зрения внешнего наблюдателя нечто, способное создать ОТО и что угодно еще неотличимо от того, что ОТО и т.д. создать не может? Считайте -- у нас свободная страна. Но не стоит удивляться, что остальные считают иначе.

      Еще сторонний наблюдатель мог бы заметить, что китайская комната без команды ничего не делает, а разумное существо -- делает. И т.д. и т.п.

      Опять-таки -- это громадная разница.

      "Если шимпанзе обладает интеллектом пятилетнего ребенка, а современный ИИ - трехлетнего, то это чисто количественный вопрос."

      Нет. То, что в поп-СМИ написали "обладает интеллектом ребенка" -- это проблема поп-СМИ. Нейросети не обладают никаким интеллектом. Вообще. Это просто слово, которое используют неудачно. Например "процесс идет". Откуда он идет? Куда? У него нет ног -- поэтому никуда и ниоткуда, это переносное использование слова. То же самое с "интеллектом" ЧатЖПТ.

      "И у ИИ нет естественных ограничений вычислительных мощностей, в отличие от нашего мозга. Т. о. ИИ просто обречён стать умнее нас, скорее всего, уже в этом веке."

      ИИ просто не существует -- есть лишь алгоритмическое ПО разных типов, не имеющее отношения к интеллекту.

      Отношение такое появится в эпоху, когда он начнет сам размышлять, без алгоритмического инициирования размышлений, а также станет создавать новые научные теории.

      Вот только алгоритмическое ПО на это неспособно в принципе, а неалгоритмическое ПО мы, люди, все еще не придумали.

      • Ну вы к примеру тоже не способны создать ОТО как впрочем и остальные 99,9% населения Земли. Опять же между неспособны сейчас и неспособны в принципе есть некоторая разница. Впрочем я охотно признаю что интеллект во всем подобный человеческому, так называемое "сознание" или может быть даже "душу" люди сейчас создать не способны и вряд ли будут способны в ближайшем будущем. Как вы вполне резонно заметили для этого надо понимать как устроена собственная черепушка или вот это вот самое "сознание" и что вообще это такое. Но как выяснилось чтобы полететь не обязательно создавать копию птицы.

        • Иван Колупаев, "Ну вы к примеру тоже не способны создать ОТО как впрочем и остальные 99,9% населения Земли."
          Читаем внимательно: "не то что ОТО, но и в принципе ни одной новой научной гипотезы предложить не может.".
          Я могу предложить новую гипотезу, а равно и доказать ее -- не ОТО, благо по образованию не физик, но могу, и это мною уже сделано. Что до остального населения планеты -- то при определенных условиях они тоже способны сделать это. Было бы желание и время. Большинство людей не делают только из-за нехватки желания -- у них другие предпочтения.
          А вот ЧатЖПТ не может этого никогда. Да и желаний у него нет. В том числе -- и таких.
          Да, чтобы полететь, не обязательно создавать копию птицы. Однако в случае разума полет -- это не способность пересказывать статью из Википедии или считать на уровне школьника. Это способность самостоятельно, без приказов извне, думать, создавая новое. С этой частью "полета" у нейросетей пока не идет.
          Я не говорю, что так будет всегда. На века в будущее я не вижу. Но то, что это так сейчас -- факт.

          • Александр Березин, Так в чём проблема? Добавьте в ИИ генератор желаний, генератор мотивации. Готовые программы уже есть.

          • Andrey Prosvirin, в том проблема, что генератор желаний будет создавать не желания, а их имитацию -- по заложенным в него правилам и с ограниченным числом вариантов.

            Следовательно, это не будет генератор желаний. А лишь его имитация. Имитация же плоха тем, что то, что в программу заложено не будет не станет желанием ПО никогда. Следовательно, проблему так не решить.

          • А. Березин, Ну, т.е. Вы хотите сказать, что ИИ успешно скопирует 99.99% населения. Что ж, согласен.

          • Andrey Prosvirin, нет, не скопирует. Поскольку указанный процент населения будет генерировать желания не по заданной ему программе, а самостоятельно -- и распределение этих желаний в итоге будет иным.

            Принципиальная проблема именно в этом. Желать ИИ не может -- и не только потому, что его не существует. Но и потому, что то, что вместо него существует (алгоритмическое ПО) не может иметь желаний. Даже если ему их задать программно -- это будет имитация желаний. Но никак не реальные желания, т.е. те, что возникают без чужих приказов.

    • Zhe Sh, Для сильного ИИ вопрос мотивации ключевой. Еще в 1966 группа советских психологов А.С. Арсеньев, Э.В. Ильенков, В.В. Давыдов подробно разобрали вопрос создания превосходящей человека машины в книге "Машина и человек, кибернетика и философия"
      Если кратко то:
      - что бы заставить машину работать в рамках человеческой культуры и интересов ее нужно сделать в виде копии человека, причем абсолютной, что бы и детей могла иметь от земных женщин и слезу пустить. Иначе условный Лев Толстой и Петрарка машине будет не понятен, а без таких прозаичных вещей она не будет понимать зачем ей придумывать звездолёты.
      - для машины можно придумать свою культуру, цели и интересы, но смысла делать конкурирующую культуру нет, не говоря о том что эта задача на порядки сложней создания самой машины.
      Так что сколь угодно мощные усилители человеческого мозга создать реально, а сильный ИИ скорее нет чем да.