• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
03.04.2023
Александр Березин
118
14 479

Контроль над демонами: почему Маск и Возняк требуют остановить развитие ChatGPT

4.7

Двести лет назад люди боялись перенаселения, а еще вытеснения рабочих продвинутыми станками. Однако теперь вместо опасности перенаселения нам угрожает глобальный демографический спад, внедрение же станков закончилось резким ростом занятости в промышленности. Ныне главным пугалом человечества стал искусственный интеллект — именно с ним призывает бороться письмо за подписью Илона Маска. Стоит ли с ним бороться? Или, как в случае со станками и перенаселением, это приведет скорее к обратному эффекту? И что это будет за эффект? Naked Science пробует разобраться в вопросе.

Слева Сэм Олтмен, глава OpenAI, компании-разработчика ChatGPT, сверху Илон Маск, один из сооснователей компании, позже покинувший ее, внизу Стив Возняк, сооснователь Apple и еще один сторонник ограничения дальнейшей разработки подобных ИИ / ©DailyMail

Чего Илон Маск и другие технологические лидеры не понимают про ChatGPT?

В письме Института будущего жизни, которое подписал Илон Маск и многие другие лидеры высокотехнологичного сектора, утверждается: «Современные системы искусственного интеллекта теперь становятся способными конкурировать с людьми в задачах общего назначения. И мы должны спросить себя: Должны ли мы позволить машинам заполнить наши каналы распространения информации пропагандой и неправдой? Должны ли мы позволить автоматам отнять у нас все работы, включая те, что нас удовлетворяют? Должны ли мы развить нечеловеческие разумы, которые могут в конце концов превзойти нас в численности, уме, сделать нас устаревшими и заместить нас?»

Ответ напрашивается сам собой: ну конечно же, не должны. На этой основе Маск и все-все-все и предлагают на полгода приостановить разработку чат-ботов, по уровню превосходящих запущенную в марте 2023 года последнюю версию ChatGPT (четвертую). На первый взгляд это кажется ответственным поведением ответственных людей, много понимающих в развитии технологий.

Однако не исключено, что все это письмо — типичная ошибка, порожденная чрезмерно узкой специализацией его авторов. Начнем с главного: искусственного интеллекта не существует. Как совершенно верно отметила в 2021 году работавшая для Microsoft Кэйт Кроуфорд: «ИИ — это не искусственный, и не интеллект». Она развивает свою мысль: «С самого начала разработчики ИИ… мы сделали ужасную ошибку: поверили, что сознания — как компьютеры, и компьютеры — как сознание. Мы предположили, что эти штуки — аналог человеческого разума, но ничто не может быть дальше от истины».

Здесь стоит понять, почему. Представим, что есть нечто, что безусловно существует, но чью суть мы не понимаем — хотя пытаемся, потому что это явно мощная штука. Сделать это легко: например, в 1908 году над Сибирью рванул взрыв на десятки мегатонн, убивший троих человек. Вопрос: могли ли люди 1908 года воспроизвести его в том же году?

Ответ довольно прост: пока они не узнали, что это было и как научиться делать взрывы той же мощности, нет, не могли. На данный момент у ученых и философов нет никакого понимания, что такое естественный разум (интеллект), и даже определения, на котором бы большинство ученых сошлись. Почему?

Приведем пример такого определения: «разум (интеллект) — это способность воспринимать информацию или делать выводы из нее и запоминать ее как знание, которое можно применить в отношении адаптивного поведения в той или иной среде».

Любой биолог в этот момент рассмеется: получается, даже слизевик физарум многоглавый разумен. Еще 15 лет назад в эксперименте было показано, что он способен именно на то, что написано в цитате выше.

Желтая субстанция на фото не содержит ни единой нервной клетки, то есть не является даже биологической нейросетью. И тем не менее, способна использовать получаемую информацию для адаптации в новой и изменяющейся среде / ©Wikimedia Commons

Тогда слизевика поместили вдоль дорожки в инкубаторе. Затем температурно-влажностные условия три раза — через равные промежутки времени — меняли на неблагоприятные для слизевика. С четвертого раза он начал адаптироваться: замедлял свои движения еще до наступления неблагоприятных условий. Если неблагоприятный режим вдруг не включали, через пару циклов слизевик забывал о нем. Все это соответствует определению «применять информацию для адаптивного поведения в новой среде».

Только вот есть проблема: у слизевика вообще нет мозгов. И нервных клеток тоже нет. Это миксомицет. Его обычная муха в плане когнитивных способностей превосходит сильнее, чем Эйнштейн — шимпанзе.

Со сходной проблемой давным-давно столкнулись ученые, пытающиеся определить, чем человек отличается от других животных. Например, если назвать отличием «орудийную деятельность, которой никто исходно не обучал», то получится, что вот эти муравьи, первый раз в жизни столкнувшиеся с губкой и тут же начавшие использовать ее как орудие для сбора сиропа, — «тоже люди» / ©YouTube

Как именно без нервной системы удается использовать информацию для адаптации, неизвестно. Но совершенно точно так же неизвестно, как это делаем мы.

Определений интеллекта было выдумано множество — более сотни. Однако все попытки применить их к реальности заканчивались таким же фиаско, что мы описали выше: «интеллект», выходит, был даже у растений, а то и у вовсе у природных процессов.

Однажды исследователи попробовали создать определение интеллекта, которое устроило бы всех. Правда, «всех» опять не вышло: под ним подписалось только 52 специалиста из 131 (то есть меньшинство), участвовавшего в выработке определения. Большинство отказались по очень простой причине: чтобы его нельзя было «натянуть» на деревья и прочую плесень, определение сделали максимально общим.

Оно прямо начиналось словами «Очень общая ментальная способность…» — и продолжалась примерно так же расплывчато. Пользы от него тоже нет: если в определении нет конкретики, а разум «определяется» как способность к абстрактному мышлению (при отсутствии определения термина «мышления»), то это определение уровня «конвергент есть продукт конвергенции». И оспорить такое трудно, и использовать невозможно.

Илон Маск и его единомышленники не замечают слона: если мы не можем выработать определение разумности, то мы не можем создать разум. Точнее можем, но только естественный, то есть путем биологического воспроизводства, без микросхем и программирования.

Но ведь ChatGPT разумен! Я знаю — сам разговаривал с ним

Сказанное выше кажется противоречащим тому, что каждый из нас легко может попробовать сам. А именно — опыту общения с чат-ботом GPT. Каждый может спросить его о законах Хаммурапи, видах на урожай на Шри-Ланке и получить разумный (ну э-э-э, по крайней мере, вам так покажется, если вы не очень пристально изучали Хаммурапи или Шри-Ланку) ответ.

Чтобы понять, почему кажущийся разумным чат-бот разумен умеренно, можно вспомнить собственное детство. Вот вы учите таблицу умножения, и родители спрашивают ее у вас. Видя, что у вас получается, они задают вопросы типа: сколько будет 89 на 94? Поскрипев мозгами секунд десять, вы выдаете ответ.

Судья в Индии уже советуется с ChatGPT о том, выпускать заключенного или нет. Как мы покажем ниже, с таким же успехом плотники могли бы советоваться со своим молотком

Вопрос: создали ли вы при этом что-то принципиально новое? Ответ: нет. ChatGPT — это большая языковая модель, натренированная на огромной выборке из массивов слов. Представим, что вы залили в некую базу данных все книги, написанные человечеством, плюс все, написанное людьми в интернете. Разбили (людьми ли, нейросетью-классификатором ли, неважно) залитое на небольшие тематические блоки, каждый из которых можно рассматривать как кусочек ответа на вопрос. Затем задали определенные правила — назовем их «четыре арифметических правила для чат-бота», — по которым эти тематические блоки можно смешивать.

ChatGPT будет делать ровно то, что и дошкольник в ответ на вопрос родителей «сколько будет 89 на 94». Это просто механическое следование определенному натаскиванию, которое шло по заранее определенным правилам. Не более. Таблица умножения с триллионами вариантов ответов, которая требует огромной памяти, но ни капли интеллекта.

В сущности, каждый из нас уже видел ChatGPT — еще до его изобретения. Это случалось тогда, когда вы или ваш одноклассник (однокурсник) не подготовились к занятию или экзамену, а двойку получать не хочется. И в ответ на вопрос преподавателя «как вы определите отличие бинарной логики и небинарной», начинали «сочинять».

Выдавали собственные попытки оттолкнуться от смысла отдельных слов: бинарная — ага, состоящая из двух частей, или двоичная, так-так, главное говорить и не останавливаться. В гуманитарных предметах преподаватель останавливает такой поток красноречия медленнее, в естественных — быстрее, но опытный преподаватель отличит «сочинителя» всегда. Его легко выдает отсутствие конкретики.

Отличие ChatGPT от студента из примера выше в том, что у чат-бота в «памяти» сидит несопоставимо больший набор тематических блоков на любые темы. Перед нами ходячая шпаргалка: выражаясь студенческим языком, у ChatGPT есть «бомба» на все вопросы, которые хотя бы примерно пришли в голову его создателям при разметке данных. Если таких «бомб» у него триллион, то в большинстве случаев, разговаривая на не очень сложные темы, отличить чат-бота от человека реально не получится.

Типичное поведение студента, не знающего билет, но пытающегося сохранить ровное лицо: берем понятные части не очень понятного нам слова и начинаем подтаскивать к нему все, что кажется подходящим по смыслу. Получается бред, ведь реальный метеороскоп не имел никакого отношения к ветру или погоде, то есть был принципиально иным устройством. И вот это заставляет Маска и Возняка бояться порабощения всех людей? Серьезно? / ©ChatGPT

Именно этим и пользуются многие хитрые хомо сапиенсы. Кто-то «пишет» чат-ботом в соцсети для знакомств с противоположным полом. Ну какая девушка сразу спросит у вас, почему в законах Хаммурапи выбрана такая высокая отсекающая кредитная ставка? Подобных вопросов на свидании можно и за всю жизнь не услышать, зато «ответы» от чат-бота действительно поднимают шанс получить от собеседницы (или собеседника) «да».

Только вот к разуму такие обмены репликами не имеют никакого отношения. Приложение для игры в шахматы на вашем телефоне тоже может рассчитать бесчисленное количество ходов. Но значит ли это, что вы должны опасаться захвата им господства над миром?

Но ведь он лишит нас рабочих мест!

Тут сразу надо заметить, что большинство существующих рабочих мест не могут быть автоматизированы ни в какой перспективе — вопреки тому, что написано в письме с подписями Маска и Возняка. Собственно, сам Илон Маск это неплохо знает: его попытка создать автоматизированное производство Tesla Model 3 в 2018 году провалилась. Производственные линии пришлось срочно переделывать «под людей», потому что оказалось, что без брака многие сложные операции им удаются, а роботам — нет. Именно тогда Маск и произнес свои исторические слова: «Людей серьезно недооценивают как работников».

Почему так получается? Основная причина не только в том, что у наших пальцев десятки степеней свободы, а у роботов столько степеней свободы будут стоить слишком дорого. Дело именно в интеллекте — который у нас есть, а у роботов — нет. Чтобы вам удавались ловкие движения, вы должны не просто понимать, как двигаться, но и адаптироваться к быстро меняющимся условиям. Роботы — и под управлением нейросетей тоже — пока справляются с этим, только если их долго и упорно «натаскивать» на движения определенных типов. Но производственные процессы всегда состоят не только из простых движений.

Поэтому попытки создать роботов, собирающих томаты или строящих дома, заканчиваются тем, что за машиной идет человек, собирающий оставшиеся овощи или убирающий раствор, наляпанный роботом.

Ответ ChatGPT на вопросы часто обнажают отсутствие у него разума, которое не скомпенсировать выдачей слов из памяти. Ни один человек, примерно представляющий себе таблицу Менделеева и свойства ее металлов, не предположит, что свинец может гореть на воздухе, и тем более, что рост его концентрации в натрии сделает такой материал горючим. Даже не трогая специальные справочники, сделать такую ошибку сложно: обычный здравый смысл подскажет нам, что свинец негорюч / ©ChatGPT

Управлять манипуляторами робота компьютеру несопоставимо сложнее, чем вытаскивать из памяти «бомбы» (тематические блоки на заданные темы), как неуспевающий студент на экзамене. Набор «бомб» численно мал, и если робот ошибется с ними так, как на иллюстрациях, все, что его ждет, — легкое неудовольствие собеседника. А вот если так же ошибется промышленный робот, будет брак. И хорошо, если в итоге не погибнут люди.

Поэтому в реальности ChatGPT и его аналоги может повлиять в основном на работу «белых воротничков». Программисты уже показывают примеры того, как им удалось написать простое приложение для телефона, только отдавая приказы чат-боту. Проблема даже не в том, что пока написанные ими приложения по сложности напоминают программу для игры в крестики-нолики, которые в 1990-е российских школьников учили писать на «бейсике». Это как раз можно поправить.

Проблема в другом: любой, хоть что-то понимающий в программировании, легко заметит, что ChatGPT на самом деле сам ничего не пишет. Программирует он так же, как отвечает на вопрос о Хаммурапи: тупо достает и комбинирует «бомбы» из своей памяти. Стандартные задачи «из учебника» по коду он вполне «вывезет».

Что-то сложное? Правка бага, возникшего потому, что ваше приложение не работает под нетипичной операционкой, которую очень хочет клиент, но которая черт его знает, как работает? С этим чат-бот не справится. И с олимпиадными задачами по программированию он вам тоже не поможет.

Некоторые думают, что это очень просто поправить. Добавить в память ChatGPT примеры нетипичных задач и… И ничего. Нетипичные задачи характеризуются тем, что они непохожи даже друг на друга. Одно дело — давать ответы на вопросы из таблицы умножения, даже если вместо 2 и 2 вы подставите 343 859 и 275 875. Совсем другое — думать. Для задач первого типа компьютеры подходят идеально: думать не надо, только идти по алгоритму, заданному хоть программистом, хоть машинным обучением, без разницы.

Для задач второго типа компьютеры не годятся: думать им нечем. И если слизевика или муравья хотя бы не надо обучать тому, как реагировать на новую задачу (они и сами учатся — смотри выше), то с искусственным «интеллектом» так не получится. Выполняя задачи сходного типа в другой области он еще справится, но на нетипичных задачах будет «сыпаться», как старинный 286-й, которого вы попросите доказать теорему Ферма.

Что на самом деле ему под силу

Пятнадцать лет назад автору этих строк впервые показали автопереводчик. Было невыносимо смешно. Несколько лет назад ему пришлось редактировать книги, переведенные с английского, предположительно людьми. Пройдя пару сотен страниц, он нашел пару десятков однотипных ошибок, которые не мог сделать человек-переводчик. Пришлось заинтересоваться вопросом и пообщаться с профессиональными переводчиками на условиях полной анонимности.

Протесты против внедрения калькуляторов поколение назад чем-то похожи на текущие пожелания Маска и ко / ©Wikimedia Commons

Выяснилось следующее. Российские издательства платят за переводы книг настолько ничтожные деньги, что переводить за них так, как это делали переводчики братья Стругацкие, невозможно: жить будет не на что. Поэтому переводчики с этого рынка либо ушли, либо превратились в редакторов того, что им выдает продвинутый автоперевод (системы, на голову выше не то что гугл-переводчика, но и DeepL). Запустив туда текст книги, «переводчик» затем лишь просматривает получившееся на предмет типовых ошибок автоперевода (они все еще есть, просто их не так много).

Разумеется, издателям этого никто не говорит: переводчик до последнего будет уверять, что никогда так не делает. На практике так делают практически все. Те, кто не хочет, постепенно уходят из отрасли, потому что иначе их доходы упадут ниже уровня московского дворника. Реальная цена на час труда переводчика не упала — просто теперь они все своего рода «СhаtGPT». Ну а если вам хочется хорошего слога (как у Стругацких в «Дне триффидов»), то вы можете почитать книжку и в оригинале, рассуждают переводчики в наше время.

Та же судьба ждет и новый чат-бот. Ничего не умеющие младшие программисты постепенно втянутся использовать его для стандартизированных задач. Ничего не умеющие копирайтеры, сочиняющие новости, не имеющие отношения к реальности, тоже будут использовать его. И это, в общем-то, хорошо. Почему?

Потому что текущий уровень большинства специалистов в «написании букв» ужасен настолько, что ChatGPT тут ничего не ухудшит, а, скорее всего, даже улучшит. Простейший пример, с которым мы на Naked Science сталкиваемся каждый день, «научные новости».

Не будем спускаться на дно: возьмем не самый худший пример из текущий недели: новость Associated Press о том, что китайские ученые обнаружили новый источник воды на Луне.

В новости есть ссылка на работу в Nature Geoscience, по которой она написана. В работе, однако, нет ничего о том, что ее авторы открыли какой-то новый источник воды. Нет таких заявлений и в словах авторов работы, с которыми переговорили журналисты AP. И это логично: наличие воды на Селене открыли не они, и сделано это было давно. Но из новости Associated Press этого не узнать. В таком же виде и с тем же ложным выводом ее подали и в российских СМИ (Naked Science разбирал это здесь).

Мы провели эксперимент и поручили написать новость про то же самое ChatGPT. И что в итоге? Конечно, получилось плохо: лунная «почва» (на Луне нет почвы), «стеклянные шары» и тому подобное. Однако многие СМИ, где пишут люди, осветили ту же новость как минимум не лучше.

Но главное, что ChatGPT не допустил абсолютно ложного утверждения, которое появилось в новости AP и всех, кто его бездумно переписал: «В образцах с Луны обнаружили новый возобновляемый источник воды».

Случаев, подобных такой новости, очень и очень много. Ведь в качественных новостях заинтересован лишь потребитель. Но он как раз на работу СМИ никак не влияет: он ее не оплачивает (кроме редких случаев подписных изданий). А те, кто ее оплачивают (рекламодатели), СМИ за пределами рекламных материалов не особенно и читают.

В том, что ChatGPT вытеснит из профессии людей, пересказывающих научные статьи в формате испорченного телефона, нет ничего плохого. Работу таких журналистов вполне можно считать деструктивной и общественно опасной деятельностью. Чат-бот просто снизит уровень ее опасности для мозгов читателей — не более.

Еще более полезно будет его появление в мире текстов рекламных, в котором требования к авторам текстов еще ниже, чем в типичном СМИ. А ChatGPT тренировали на выборке, прошедшей хотя бы минимальный отбор на качество языка. Да, он напишет как троечник, но не как двоечник же. А значит, качество рекламных текстов неизбежно вырастет.

По этой же причине не стоит волноваться, как это делают авторы все того же письма, что машины наполнят «наши каналы распространения информации пропагандой и неправдой». Откройте глаза и оглянитесь: это уже случилось. Откройте газету, которую вы читаете по утрам: с большой долей вероятности она переполнена «пропагандой и неправдой».

Причем неправда и пропаганда сделаны так же плохо и неумело, как и научные новости про «новый источник воды на Луне». Потому что их пишут те же ничего не умеющие и малооплачиваемые люди.

 В этом и есть главная ошибка подписавших письмо Маска, Возняка и остальных взволнованных граждан. Они протестуют против явления, которое не сможет испортить мир вокруг нас по той простой причине, что планета и до ChatGPT была «для веселья мало оборудована».

Так ради чего мы должны задерживать развитие ChatGPT? Чтобы еще шесть месяцев наслаждаться «новыми источниками лунной воды», которых никто не открывал?

Чего на самом деле стоит ждать от ChatGPT?

Как и множество инструментов компьютерной эры до того, ChatGPT и ему подобные — не «новый разумный вид»: в плане критериев разумности он отстает даже от слизевика (нет использования полученной информации для адаптации в принципиально новых условиях). Зато это, безусловно, отличный инструмент — что-то типа пневмомолотка или станка ЧПУ. Забивать гвозди можно и вручную, но вам придется тратить намного больше сил или забивать намного меньше гвоздей в час.

Нам еще в школе рассказали о том, как станки действуют на рабочие места, и рассказали неправильно. Напомним типичную канву таких рассказов: продвинутые ткацкие станки в XVIII веке сделали безработными индийских ткачей, и те умерли от голода.

Джон Кэй, английский изобретатель механического челнока для ткацких станков. Вопреки рассказам из учебника о простой и быстрой победе машин, реальность была совсем иной. Согласно труднопроверяемым утверждениям о его жизни, изобретатель был гоним и неоднократно избиваем у себя на родине, и, при этом, так и не смог там заработать денег на своих разработках. В итоге он был вынужден уехать во Францию, где и умер / ©Wikimedia Commons

Потом нам рассказывают о техническом прогрессе, роботах и компьютерах, и мы как-то почти сами собой приходим к выводу, что дальше машины вытеснят человека и из других рабочих специальностей. Это звучит тревожно: у кого-то в школе преподают экономику, где рассказывают, что рабочие получают в среднем больше других наемных работников, и по этой причине сокращение рабочих мест в промышленности в Штатах считают одним из признаков деградации структуры занятости в этой стране.

На самом деле, истории про «вытеснение индийских ткачей машинами» попали в наши учебники из поверхностной околоэкономической литературы XIX века. В реальности все было совсем не так.

Во-первых, Англия конкурировала с индийцами, ввозя хлопок из Индии для переработки у себя, но при этом запрещая импорт готовых изделий. Во-вторых, изобретение автоматизированных ткацких станков на самом деле вовсе не вытеснило труд индийцев: оно случилось в XVIII веке, а реальное замещение индийского текстиля британским произошло только после начала наполеоновских войн.

В-третьих — и это самое важное, проблема индийских ткачей была вовсе не в том, что они не могли конкурировать с новыми британскими станками. А в том, что Британская Ост-Индская компания установила нерыночные, директивные — и на 20% ниже себестоимости — цены на изделия индийских ткачей. Параллельно она же установила жесткое квотирование количества хлопка-сырья, которое они могли получить. А всё, что сверх того, отправляли в Британию.

Нельзя сказать, чтобы индийцы не пытались что-то сделать. Отдельные ткачи пробовали продавать свою продукцию не Ост-Индской компании, а другим покупателям, но это у них плохо получалось. Процитируем здесь англичан, наблюдавших все это: «Агенты компании часто захватывали и бросали в тюрьму ткачей [пытавшихся продавать не компании], держали их в кандалах». Ткачи, работавшие с шелком, наказывались иначе: «Были известны случаи отрезания им больших пальцев».

На Великой выставке 1851 года, открытой королевой Викторией, текстиль занимал ключевое место, благо был важен для тогдашней британской экономики. Одежда из Англии шла на экспорт в Индию, а ее собственные ткачи в ту эпоху умирали от голода. Вот только причиной этого была вовсе не их неконкурентоспособность перед британскими станками… / ©Wikimedia Commons

Индийские ткачи проиграли конкуренцию не британским станкам, а британским топорам, которые отрубали им пальцы, и британским кандалам, в которых их держали, если они пробовали конкурировать со станками на рыночных началах.

Казалось бы, не все ли равно, как оно там было двести лет назад? Нет, не все равно. Всегда следует помнить: появление средств автоматизации почти всегда ведет к росту занятости, а не к ее падению. Почему?

Когда один ткач начинает выполнять работу ста ткачей, цена одежды резко снижается. До появления ткацких станков сотни миллионов людей использовало в основном «домотканные» вещи. Еще в 1920-х в СССР премировали людей «мануфактурой» — то есть тканью фабричного производства, которая для большинства крестьян обычно была недоступна. Ручные прялки были атрибутом чуть не каждого сельского дома в стране.

Массовое производство уронило цены на одежду до уровня, когда «домотканая» одежда просто не имеет смысла. Более того: снижение цен на массовые вещи привело к возможности часто менять их, следуя за модой.

В итоге «вымирания ткачей» не просто не случилось: станки резко умножили их число. Напомним цифры: Индия 1700 года (включала земли современного Пакистана и Бангладеш) имела 150 миллионов населения, экспортировала 25 процентов от всего текстильного вывоза на планете. За счет отрубания пальцев, монопольной скупки и других достижений британской цивилизации к 1947 году эта доля упала до двух процентов.

Но стоило индийцам лишиться заботливого белого господина, и внезапно оказалось, что станки им не только не мешают, но и помогают. В современной Индии + Пакистане + Бангладеш совокупно более 50 миллионов работников текстильной индустрии. Это во много раз больше, чем 300 лет назад, то есть даже на душу населения «ткачей» в Индии, скорее всего, стало даже больше.

В основном они обслуживают внутренний рынок: даже бедные слои населения не делают себе одежду сами, как это было 300 лет назад. Но и экспорт там весьма значительный.

Нетто-экспорт текстиля, желтым показаны крупные нетто-экспортеры. Легко видеть, что несмотря на изобретенные продвинутых ткацких станков в Англии, Индия зарабатывает на текстиле больше англичан / ©Wikimedia Commons

Что самое интересное: как только сахиб покинул индийцев, немедленно оказалось, что даже сектор, все еще работающий ручными прялками, внезапно конкурентоспособен. Они делают одежду, не похожую на заводскую, что поднимает ее цену достаточно, чтобы индийские ткачи вполне могли на этом заработать.

Пример с ткацкой индустрией очень показательный. Даже если ChatGPT научится стандартному программированию не ради хайпа, как сейчас, а реально производительному, он не заменит программистов. Лишь позволит им выпускать больше кода в единицу времени, редактируя код, а не набирая его с нуля. И, разумеется, в нестандартных задачах всегда будет «спрос на ручной труд», по той простой причине, что впихнуть все типы задач в обучающую выборку всегда будет слишком дорого. Как слишком дорого придавать индивидуальный дизайн вещам с текстильных фабрик, за счет чего и существуют индийские ткачи, работающие вручную.

То же самое касается и остальных белых воротничков. ChatGPT «пишет» (а точнее, комбинирует заложенные в него при обучении наборы слов), мягко говоря, так себе: слог далек от приятного. Понять, о чем он пишет, чат-бот не может принципиально, потому что понимать некому. У него нет своей личности, он может только комбинировать символы по заданным правилам. Следовательно, его «статьи» всегда будут глубоко вторичны и не более содержательны, чем плохая статья из Википедии.

В таких условиях рынок статей будет забит двумя видами продукции. Низкокачественным итогом работы редакторов выдачи ChatGPT и тем, что написано людьми, вручную.

Запреты: бесполезны или вредны?

Билл Гейтс говорил: «Я согласен с Илоном Маском и другими в этом, и не понимаю, почему некоторые люди не обеспокоены [искусственным интеллектом]».

Илон Маск высказался еще более конкретно: «Самая большая угроза нашему существованию, вероятно, искусственный интеллект… должен быть регуляторный надзор, может быть, на государственном или международном уровне. С ИИ мы вызываем демона. В историях о вызывании демона фигурируют пентаграммы и святая вода, которые удерживают его под контролем. Вы знаете, это не сработало».

Мы не Илон Маск, но одно можем сказать точно: все исторические попытки поставить под контроль развитие новых технологий заканчивались очень печально.

По самым консервативным оценкам, крупнейшие китайские джонки начала XV века были длиннее 70 метров, а по водоизмещению превышали три тысячи тонн. Согласно источникам той эпохи, их длина была 127 метров при ширине 52 метра, вооружение состояло из 24 бронзовых пушек / ©Wikimedia Commons

Все мы хорошо знаем этот пример. К XIV веку китайцы уже использовали пороховую артиллерию, печатный станок, туалетную бумагу, банкноты, перегонный куб, йод как антисептик и прививки от оспы. Еще они владели такой сложной технологией, как массовая постройка громадных (даже по современным меркам) кораблей с румпелями и водонепроницамемыми переборками, пригодными для трансокеанских плаваний.

Ничего из этого европейцы той эпохи не разработали. Те же корабли Колумба были небольшими, легко тонущими, в среднем очень мало служившими.

Но Китай, как и многие сегодня, не хотел «вызывать демонов», потому что опасался, что не сможет их контролировать. Пороховое оружие подвергалось жесткому госконтролю и ограничениям — как и войны, которые так способствовали его развитию в Европе.

Банкноты — до массового безналичного расчета необходимая часть любого длительного и сильного экономического роста — были просто запрещены династией Цин. Из совершенно благих соображений: чтобы не вызывать гиперинфляции, получившейся у прежних династий. И строительство крупных кораблей там тоже запретили: ведь на них возили контрабанду, да еще и пиратствовали.

Из этого легко видно, почему европейцы, начавшие с куда более худших стартовых условий, приплыли в Китай и практически уничтожили древнейшее из существующих государств планеты.

Иначе просто не могло быть. Если одна сторона не налагает ограничений на развитие оружия и кораблей, а вторая «не вызывает демонов», то у первой они неизбежно будут лучше, чем у вторых.

Китай стал первой в мире страной, которая изобрела и внедрила фиатную валюту, то есть деньги, не имеющие металлического обеспечения и поэтому пригодные к печати, позволяющей постоянно увеличивать их денежную массу. На фото: справа бумажный дензнак XIII века, сообщающий, что за его подделку положена смертная казнь. В левой части: печатная основа, с помощью которой печатали эти деньги. К сожалению для Китая, там не сделали следующий шаг и не заставили иностранцев покупать китайские товары за бумажные денежные единицы. Да и расчет эмиссии отсутствовал, что привело к четырем эпизодам гиперинфляции и отказу от фиатных денег. Отказу, ставшему большой ошибкой. Есть ли смысл повторять ее и с новыми технологиями? / ©Wikimedia Commons

Если одна сторона не может долго и быстро наращивать ВВП (поскольку металлические валюты этого технически не позволяют), а другая может (сперва за счет прилива металлов из Нового Света, а затем и печати денег), то экономика второй со временем неизбежно станет намного больше.

Позиция Маска, Возняка и других выглядит разумной и обоснованной. Точно так же, как китайские запреты на пороховые мины, фиатные деньги и прочие сложные технологии и оружие.

Вот только и Маску, и Гейтсу с Возняком стоит помнить: тот, кто не хочет вызывать демонов сам, обречен на то, чтобы бороться с демонами, которых вызовут другие.

Да, никакого искусственного интеллекта не существует, и ChatGPT сам вам это напишет, если вы его спросите. Но точно так же не было интеллекта и у продвинутых ткацких станков XVIII века или у самостоятельно взрывающихся контактных китайских мин XV века. И, тем не менее, они были очень эффективными приспособлениями, дававшими своим создателям преимущества над теми, у кого таких технологий не было.

Приостанавливать развитие «искусственного интеллекта» в связи с этим — двойная ошибка. Во-первых, недальновидно пытаться контролировать демонов, которых не существует. Во-вторых, вдвойне недальновидно пытаться мешать возникнуть своим «псевдодемонам», если в результате вам придется отбиваться от чужих.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
Позавчера, 19:20
Мария Азарова

Исследователи из Южной Кореи на примере супружеских пар проверили, как длина и состояние волос женщин отражаются на влечении к ним мужчин и частоте половых контактов.

Вчера, 07:27
Полина

Международная команда исследователей проанализировала гены композитора Людвига ван Бетховена. Если оценивать по ним его способности к музыке, они окажутся невыдающимися.

8 часов назад
Игорь Байдов

Американская компания JetZero, которая обещает произвести фурор в гражданской авиации, получила сертификат летной годности на испытания уменьшенной копии разрабатываемого ею сверхэффективного реактивного авиалайнера со «смешанным крылом». Предстоящая программа летных испытаний будет направлена на оценку летно-технических характеристик самолета, его устойчивости и управляемости.

Позавчера, 19:20
Мария Азарова

Исследователи из Южной Кореи на примере супружеских пар проверили, как длина и состояние волос женщин отражаются на влечении к ним мужчин и частоте половых контактов.

Вчера, 07:27
Полина

Международная команда исследователей проанализировала гены композитора Людвига ван Бетховена. Если оценивать по ним его способности к музыке, они окажутся невыдающимися.

24 марта
Михаил Орлов

Астронавты, прибывшие на Луну в рамках программы «Аполлон», установили на ее поверхности первые внеземные сейсмографы и оценили частоту и силу лунотрясений. Теперь, спустя полвека после сбора данных о сейсмической активности Луны, ученые вновь подвергли их анализу, смогли удалить из них помехи и резко изменили оценки сейсмической активности на Луне. Оказалось, что приборы тогда зафиксировали не 13 тысяч лунотрясений, как считали ранее, а почти в три раза больше. Среди них неожиданно много слабых толчков, которые сосредоточены в северном полушарии Луны.

11 марта
Игорь Байдов

Американская компания Stratolaunch сообщила об успешном завершении летных испытаний прототипа гиперзвукового аппарата Talon-A, оснащенного ракетным двигателем. Во время беспилотного полета планер развил сверхзвуковую скорость.

18 марта
Игорь Байдов

Грузовой самолет будут использовать для перевозки 90-метровых лопастей ветряных турбин, которые невозможно доставить по суше из-за размеров. Предполагается, что этот аппарат произведет революцию в сфере возобновляемых источников энергии.

13 марта
Алиса Гаджиева

Древние переселенцы из Анатолии не только устроили геноцид в Скандинавии, но и одарили выживших новыми болезнями.

[miniorange_social_login]

Комментарии

118 Комментариев

Uliana Khmeleva
2 дня назад
-
0
+
Здравствуйте, Александр! У вас такая супер-классная статья, мне подумалось, что она похожа на то, что я хочу ещё почитать )) И я пришла к вам с вопросами. Можно? Вопросы такие, слегка исторические. Известно, что в истории были периоды накопления знаний/библиотек в развитых городах/центрах цивилизации. Понятное дело, известно в основном про европейские и около них государства. Кстати, турки это вообще Европа или уже нет? И говорят (ну, вот Мейер, например, в своём "Мироздании" говорит), что во время военных конфликтов победители могли выкрасть содержимое библиотеки, а остальное — сжечь. Хочется узнать подробнее про такие события и их влияние на развитие науки в разных географических и исторических условиях и местах. * Кто и когда крал библиотеки и кто и когда уничтожал их * Что было в библиотеках уничтоженных (предполоижтельно) * Что дошло из тех времён, из которых не должно было дойти, и почему всё-таки дошло? * Крали ли библиотеки китайцы или у китайцев? А южно-американцы, австралийцы, африканцы и т.д.? * Крали ли европейцы у индусов или наоборот? Пришла в голову смешная мысль, что уничтожение библиотек может быть способом очищать инфопространство от совсем уж хлама. Полезное люди переписывали, хранили в личных библиотеках, а вот макулатуру (кек), которую никто не удосужился переписать, и которая находилась только в библиотеке -- уничтожали.
Evil
06.12.2023
-
0
+
Статья написана неплохо. Соглашусь, что создать настоящий! ИИ, чтоб мыслил как человек, а уж тем более и превосходил его, на сегодня никто не может (хотя это вовсе не означает, что его не создадут в будущем). Но основной финт не в этом. Дальнейшее развитие и, главное, ВНЕДРЕНИЕ ВО ВСЕ СФЕРЫ того, что уже создано на сегодня, не мешало бы остановить в первую очередь для замедления темпа дебилизации и идиотизации человечества. Не буду распинаться, как много везде глупых, откровенно глупых! людей уже сейчас, плюс с плохим здоровьем, слабых, неразвитых физически, ведь с каждым днём человеку нужно всё меньше и меньше думать и всё меньше и меньше выполнять физических действий. В этом заключается угроза человечкам.
Артем
07.07.2023
-
0
+
ChatGPT это обычная поисковая система - которая умеет перефразировать ответы - не более
Mikhail Korsanov
07.07.2023
-
0
+
Автор, дорогой, ты общался с Claude+? Он уже совсем не такой тупой, как Chatgpt, хотя и тоже, можно умнее. Но если ChatGPT умнее лишь 80% людей, скажем, то Claude+ уже умнее 95% людей в большинстве значимых для жизни сфер деятельности. А если пойти дальше тем же темпом - мы получим то, что пишет лучше и принимает решения лучше, чем 99.9% людей. Может быть, Маск это предвидит и не хочет конкуренции себе? Да, если задерживать развитие демонов у себя - это приведет к развитию демонов у других наций. Правда. Но как тогда быть? Это ж приведет к тотальному преобладанию ИИ над людьми в большинстве задач. И то что, этот ИИ - не искусственный и не интеллект, с практической т.зр. никого волновать не будет. В отличие от станков, ИИ уже скоро сможет (отчасти уже) программировать сам себя, ставить себе задачи, декомпозировать цели, осознавать себя и выдавать все более и более целесообразные и эффективные решения задач, которые сам себе и будет ставить. Юмор и творчество уже тоже осваивает: если ChatGPT в это довольно туп, у Claude+ уже просматривается некоторое остроумие и интересные творческие находки. А что, если еще увеличится в 10 раз уровень? Да, сейчас базовый уровень программирования освоен, фантазирует, и тупит в ряде случаев. Это не мешает по ряду распространенных задач быть лучше человека. А если поднять уровень? Тогда заберет работу у среднеуровневых профи. А если еще поднять? Тогда начнет и нестандартные задачи решать лучше людей. И всё. Тогда преобладание человеческого *разума* закончится. Возможно, люди оставят приоритет в области духа - те, у кого он открыт, но таких меньше 0.2%.
    Александр
    07.07.2023
    -
    0
    +
    Общался. Принципиальных отличий не нашел -- и с метерооскоповым примером из текста выше -- тоже. "Но если ChatGPT умнее лишь 80% людей, скажем," Он не умнее вообще ни одного человека. Потому что у него ума -- это просто китайская комната: https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0 "то Claude+ уже умнее 95% людей в большинстве значимых для жизни сфер деятельности." Вы путаете ум и способность генерировать набор символов по запросу. Любой калькулятор может по запросу посчитать лучше любого человека. Но к уму это не имеет ни малейшего отношения. То же -- и с ChatGPT и любым его аналогом. Чтобы можно было говорить об уме, нужны признаки, которые не имеются у "китайских комнат". "А если пойти дальше тем же темпом - мы получим то, что пишет лучше и принимает решения лучше, чем 99.9% людей" Нет, не получим. Потому что китайская комната не принимает решение. Она лишь алгоритмически (по выученным обучением) алгоритмам перетасовывает символы, не более. Калькуляторы сложные делают это в матобластях уже десятки лет. Тут то же самое -- просто для букв. Не более. Какими бы ни были темпы развития калькуляторов или аналогов ChatGPT, это никак ни на что не повлияет в смысле ума или принятия решений.
    +
      ещё комментарии
      Mikhail
      07.07.2023
      -
      0
      +
      Я бы предложил рассматривать ИИ (и неИИ) с практической т.зр. Если рассмотреть все множество задач которые решает человечество, то калькуляторы справляются с очень узким классом задач, хотя и распространенным. Сегодняшние генеративные сети и ИИ справляются с более широким классом задач приемлемо - на уровне какой-то части людей или лучше. Да, некоторые вещи не могут или не могут так хорошо как люди - скорость обучения радикально ниже на многих задачах, чувство юмора пока слабое, креатив - так себе, плюс глючит их и в строгих логических и математических вычислениях слабы, да. Но уже есть ИИ который в играх за вполне умеренное время научается достигать результатов с 0, и управлять роботом с ногами, не имея никакого начального представления, как это делается. Если повышать мощность этого "неИИ" и достраивать его новыми модулями, % задач, которые успешно решаются "неИИ" - будет все возрастать. А повышение мощности ИИ будет происходить быстрее, чем повышение способностей большинства людей. Поэтому в какой-то момент с практической т.зр. ИИ захватит подавляющую часть видов деятельности человека, в т.ч. новых, которые будут создаваться благодаря вытеснению людей из предыдущих видов деятельности, в итоге большинству людей кто не интегрировался с ИИ максимально плотно (нейроинтерфейс), и не присвоил себе возможности ИИ - окажется нечего делать, и это очень существенно повлияет на цивилизацию и уклад жизни с практической т.зр. Да, пока ИИ не захватит часть видов деятельности людей - потому что существующие модели проигрывают людям по ряду характеристик. Но это преимущество может быстро пройти, т.к. много команд работает над устранением этих недостатков. Через лет 5 все забудут, что ИИ "глючило" и он придумывал факты там, где не надо, и неверно решал мат. задачи. А через 10 - все будут с улыбкой вспоминать, как первые публичные модели типа GPT могли только разговоры разговаривать.
получается большинство "белых воротничков" зря получает зарплату и их можно заменить на ИИ освободившихся можно отправить дворниками 🙄 их искусственный интеллект вряд ли заменит ближайшие пятьдесят лет...
John Oakland
08.04.2023
-
0
+
Тут трудно не согласиться с автором. Непонятно, зачем комментирующим разгонять тему опасности ии, если даже в теории невозможно создать механизм на основе готового продукта деятельности этого механизма, без понимания принципа его работы. Например, если не знать анатомию человека, то по факту выдыхания воздуха невозможно воссоздать структуру лёгких и принцип их работы. Мы мало того, что не понимаем, что такое интеллект или разумность. Мы даже не можем повторить принцип работы мозга от возникновения мысли к побуждению и действию. Мозг состоит из миллиардов нейронов каждый из которых получает импульс и координирует действия. Причем уже доказано, что нейроны меняют свои роли и кодировки т.е. нет нейрона привязанного к одному и тому же действию, они взаимозаменяемы и зависят от кода. Тот, кто найдет способ управления таким объемом (многомиллиардным) нейронов и корректной передачей импульсов точно получит нобелевку. Но пока мы так и не понимаем механизм работы зарождения мысли и дальнейшего побуждения к действию, например, согнуть палец. Логика понятна, механизм работы объяснить и тем более повторить не можем, что уж тут говорит о понимании вопроса сознания, разума, интеллекта. А без этого понимания ни о каком создании ии мы не можем говорить. Когда врач лечит симптомы, а не причину болезни, пациент не выздоравливает, когда мы пытаемся создать машину копирующую наши действия, мы создаем подражающий механизм, а не причину этих действий - интеллект.
-
0
+
На thebell.io появилась 3-я открытая статья про ЧатЖПТ, ИИ, и все, все, все. Много букв и ссылок, интересно. Нашел сам себя в лагере осбуждающих ЧатЖПТ. Оказ-ся, никто из обсуждающих ЧатЖПТ неправ, и все мы чудаки в той или иной мере.
Ванечка
05.04.2023
-
1
+
Ну а если по теме лионских ткачей и вытеснения нейросетками человеков... Автор забыл упомянуть зарплаты. Да конечно потом появились новые рабочие места промышленность поперла и экономика показала сплошной м2 но вот конкретно те самые ткачи оказались без работы или потеряли в доходах нанимаясь "выпускать больше ткани за единицу времени". Из-за чего были немного печальны и даже слегка бунтовали. А мода на хенд-мейд пришла заметно, заметно позже. Но злой сахиб как всегда. Если пояснять совсем уж на пальцах то никто не станет платить программисту правящему код за ИИ, те же деньги как платят сейчас программисту создающему собственный код. Уникальные специалисты конечно останутся и может даже получат повышение, но те кто не настолько уникален пойдут искать другую работу. Что до ИИ то фраза "если не можем придумать определение, так значит и не можем создать сам объект" на мой взгляд безумно смешна и содержит логическую ошибку.
    Александр
    19.04.2023
    -
    0
    +
    "Но вот конкретно те самые ткачи оказались без работы или потеряли в доходах" Если вам рубят пальцы за то, что вы продаете дороже навязанной вам сахибом из Ост-Индской компании цены -- вы реально теряете работу или доходы. Но никакие станки в этом вообще не виноваты. Виновата нехватка пальцев. Будь дело в станках -- вам не могли бы отрубить пальцы за продажу по более высоким ценам на сторону, поскольку спроса на такие продажи бы не было. "А мода на хенд-мейд пришла заметно, заметно позже" А мода не хенд-мэйд никуда и не уходила -- откуда и рубка пальцев. Без такой моды не было бы за что пальцы рубить: не было бы "левых" продаж по ценам выше назначенных Компанией. Картинка "станки выдавили ткачей с рынка" неадекватна, что и показано в тексте выше. " Уникальные специалисты конечно останутся и может даже получат повышение, но те кто не настолько уникален пойдут искать другую работу." Вас не смущает, что ткачей в Индии больше, чем было до появления сложных станков? Или вы думаете, что все эти десятки миллионов -- "уникальные специалисты"? "Что до ИИ то фраза "если не можем придумать определение, так значит и не можем создать сам объект" на мой взгляд безумно смешна и содержит логическую ошибку." На ваш -- наверное. В то же время, ученые считают именно так, как в этой фразе, и их можно понять.
    +
      ещё комментарии
      Ванечка
      22.04.2023
      -
      0
      +
      В то же время, ученые считают именно так
      Александр вы то и дело разоблачаете разных экспертов, мол нифига не шарят узкие специалисты в сравнении с журналистом широкого профиля, но мгновенно берете на вооружение их доводы если авторитетное мнение совпадает с вашим. Ну а если по теме вы немного жульничаете когда не берете в расчет временной лаг между появлением ткацких станков и расцветом хендмейда. Ладно попробую еще разок. Вот к примеру случилось землетрясение в Турции и десятки тысяч погибли, но ведь через десяток лет там снова появится много турков. Значит землетрясение никого не убило и вообще только на пользу. Если рассуждать в перспективе. Ну а Илон Маск и другие подписанты мыслят не столь "глобально" и опасаются социальных взрывов здесь и сейчас.
      Mikhail
      07.07.2023
      -
      0
      +
      Ученых можно понять, т.к. они зациклены на рациональности. А в реальности люди делают многие хорошие вещи и не осознавая, интуитивно.
        Александр
        07.07.2023
        -
        0
        +
        Два вопроса: 1) Вы понимаете, что ИИ обладющий набором качеств естественного интеллекта -- намного, намного сложнее атомного реактора? Или космической ракеты? 2) Вы реально считаете, что кто-то из людей может построить атомный реактор "не осознавая, интуитивно"? Или космическую ракету? Никаких тревожных звоночков в голове не звенит -- ну, например, что прецедентов создания настолько сложных вещей "неосознанно, интуитивно" история человечества просто не знает?
          Mikhail
          07.07.2023
          -
          0
          +
          1) сложность во многом воспроизводится вычислительной мощностью, а не сложностью описания структуры. а выч. мощность уже сопоставимая с мозгом 2) то что получается сейчас - более или менее крякает, плавает, ходит в развалку, иногда летает, и жрет хлеб и желуди. да, с ощутимыми недостатками, но уже довольно похоже. и как бы всем по барабану, утка оно или нет - его называют уткой и обращаются с ним как с уткой - и точного определения утки не требуется, чтобы ее пользовать по назначению. Вы излишне теоретизируете. Да, эту утку надобно доделывать чтобы было еще более похоже. Но если уже станет совсем похоже на интеллект человеческий по проявлениям - уже будет поздно пить боржом, люди большей частью перестанут быть нужны. И по-прежнему почти всем будут по барабану ваши теоретические вопросы. Удивляет, что вы, как умный человек, не экстраполируете на 1-2 шага вперед, а только способны обесценивать то, что уже сделали 🤷‍♂️
-
0
+
Есть мнение, что революция нейросеток не взлетит, если не сделать fact-checker. Сеть, которая будет проверять, насколько тот или иной текст и отдельные утверждения в нем соответствуют истине, и давать заключение на этот счет на том же языке. Причем уметь в неоднозначных случаях взвешивать найденные в своей базе данных аргументы "за" и "против", с весовыми коэффициентами, пропорциональными тому, насколько сам аргумент вяжется с картиной мира. Понятно, что в некотором классе случаев это вообще может оказаться невозможным, но большая часть проблемы отфонарности таким образом должна решаться. Интересно, это задача того же класса сложности, что и сам ChatGPT, или следующий уровень? Интуитивно кажется, что по части научно-технических утверждений это даже проще. На общечеловеческом уровне - сложнее. Но это можно рассматривать как нечто сродни оснащению генеративных нейросетей рефлексией.
    Ванечка
    05.04.2023
    -
    0
    +
    если не сделать fact-checke
    И кто будет проверять проверяющих?
    революция нейросеток не взлетит
    Да все уж взлетело давно. Нейросетки в сети везде куда ни плюнь. Но забавно наблюдать как ретроградит научпоповый вроде бы журналист. Хотя кто я такой чтобы учить евреев делать бизнес ))) Хайп сейчас в том чтобы отрицать нейросетки, применять-то их научились даже школьники. Кстати на вопрос о разумности ИИ, тот же ChatGPT отвечать отказался. Или ответил уклончиво. Мол вопрос философский и в том плане как его понимают люди искусственный интеллект будет построен нескоро, а может и никогда. Ключевая фраза здесь "как его понимают" Что считать критерием разумности люди еще и сами не очень определились.С тем что запреты не помогут трудно не согласиться. А вот возникнет ли в результате ИИ который можно считать личностью или получится все более продвинутый "тетрис" это вопрос открытый. Впрочем если копнуть историю негров тоже личностью долго не признавали.
    +
      ещё комментарии
      Mikhail
      07.07.2023
      -
      0
      +
      Отрицать ИИ - это хайп? для меня интересная мысль. Видимо, потому что защитная реакция у многих людей на страшное - отрицание и обесценивание. И становится на душе спокойнее, когда отрицают и обесценивают люди, выглядящие авторитетно.
    Александр
    06.04.2023
    -
    1
    +
    " Интересно, это задача того же класса сложности, что и сам ChatGPT, или следующий уровень? Интуитивно кажется, что по части научно-технических утверждений это даже проще" Это задача на сегодня для научно-технических утверждений даже среди людей -- см. споры о темной материи, происхождении Луны, безуглеродном переходе или положительности/отрицательности глобального потепления. Можно ли для не думающих программ решить задачу, нерешаемую людьми -- мне кажется вопросом риторическим.
ошибка автора статьи в том, что якобы ии не может ничего нового придумать. Ии путем проб и ошибок, к примеру понял какой первый ход в шахматах является самым лучшим. Где гарантия того, что он не поймет какой компьютерный код будет оптимальным, также путем проб и ошибок, или в других задачах где он может заменить человека, и не просто заменить, а превзойти, как шахматиста
    Александр
    06.04.2023
    -
    0
    +
    "ошибка автора статьи в том, что якобы ии не может ничего нового придумать. Ии путем проб и ошибок, к примеру понял какой первый ход в шахматах является самым лучшим." Он это "понял" (пишу в кавычках, ибо понимать там нечему) в строго алгоритмизированной среде, потому что в него были заложены алгоритмы для работы в этой среде. В других средах он так не может. "Где гарантия того, что он не поймет какой компьютерный код будет оптимальным, также путем проб и ошибок, или в других задачах где он может заменить человека, и не просто заменить, а превзойти, как шахматиста" Не может, потому что, как и отмечено в статье выше, чатжпт и его аналоги не умеют использовать свои знания для адаптации к принципиально новой среде.
-
-1
+
Есть хороший фантастический рассказ 1946 года "Компьютер по имени Джо", который оказался пророческим, и если JPT немного доработать (особенно с памятью) и дать доступ в интернет, может случится тоже, что и в рассказе
Ванечка
05.04.2023
-
0
+
Вижу секта Березина (642 подписчика) вовсю разбирает мой комент 😍 Жаль поучаствовать не могу - Березин запретил комментировать его научпопик. Ну да бог с ним все равно тем же кончилось бы.
    Ванечка
    05.04.2023
    -
    0
    +
    Кстати "смена ориентации" (АБ знает о чем я) случилась не вдруг. Пабликов с "патриотами" начитался, пообщался с такими, что Коняшов нервно курит, при попытках возражать против очевидного бреда и людоедства был забанен почти везде. Ну и стал задумываться, а точно это те люди с которыми пошел бы в разведку? Благо большинство там ходить никуда не собираются. Так иногда понторезят на тему 🙂 мол пошел бы да не берут (это сейчас-то когда в музыканты зазывают на каждом углу, а на контракт спустили план такой что военкомы плачут). Это все о "пользе" турбопатриотизма, да.
    +
      ещё комментарии
      Ванечка
      05.04.2023
      -
      0
      +
      Кисо обиделось что есть "патриоты" покруче? 😉 Как видишь я могу работать и на твоем уровне. Благо планка не слишком высока. Только скучно это.
        Игорь
        05.04.2023
        -
        0
        +
        Какая уж тут обида...) Кроме здорового смеха, ты ничего не вызываешь.
          Ванечка
          05.04.2023
          -
          0
          +
          Ну а твои потуги "обидеть" вызывают скорей сожаление. Что такие люди топят за патриотическую идею и всерьез верят что приносят пользу 🙄
            Игорь
            05.04.2023
            -
            1
            +
            Чудо гороховое, никто не топит персонально за "патриотическую идею". "Топят" за то, чтобы подходили с одними мерками к оценке разных явлений и персонажей. А то в голове у пациентов уживаются "дряхлый дед" возрастом в 70 лет, регулярно занимающийся спортом и "бодрячок" Байден в свои 80 лет здоровающийся с воздухом...)
-
0
+
Мне кажется, не верна сама постановка вопроса от этой инициативной группы. Нейросети имеют огромный потенциал, но должно регулироваться его применение - судья может консультироваться с ИИ и тот выполнит всю рутину по подборке нормативной базы или прецедентов, но изучить эту подборку и вынести решение должен судья-человек. Так же и врач, воспользовавшись анализом массива данных от ИИ сам ставит диагноз, назначает и контролирует лечение… Т.е. идея наверное больше в том, что бы люди не обольщались и не велись на «чудеса», а разумно использовали новый мощный ВСПОМОГАТЕЛЬНЫЙ инструмен…
Виктор Х
04.04.2023
-
1
+
То есть если вдруг 100 или даже 500 ученых придут к консенсусу по вопросу определения Ии. По логике автора тогда ии вдруг станет возможным
    Дмитрий
    04.04.2023
    -
    5
    +
    "То есть если вдруг 100 или даже 500 ученых придут к консенсусу по вопросу определения Ии. По логике автора тогда ии вдруг станет возможным" "Почему вы подменяете понятия." кажется это вы подменяете понятия
Виктор Х
04.04.2023
-
1
+
Для того чтоб также что либо утверждать в отношении Ии у вас также должно быть определение (формализация) интеллекта с обоснование того почему его нельзя создать. Пока что все ваши рассуждения сводятся к тому что пока у вещи нет определении (пока я ее не увидел) ее существовании невозможно
    Александр
    04.04.2023
    -
    1
    +
    "Для того чтоб также что либо утверждать в отношении Ии у вас также должно быть определение (формализация) интеллекта с обоснование того почему его нельзя создать." Нет, не должно быть. Чтобы утверждать, что мы не можем использовать темную материю как материал для производства кирпичей совсем не обязательно иметь удовлетворительное определение темной материи. См. чайник Рассела. А вот если бы я заявил, что создал искусственную темную материю -- да, тогда бы мне пришлось иметь удовлетворительное определение темной материи (а не то неудовлетворительное, что мы имеем сегодня). То же -- с ИИ и интеллектом. "Пока что все ваши рассуждения сводятся к тому что пока у вещи нет определении (пока я ее не увидел) ее существовании невозможно" Вы плохо видите. Мои определения сводятся к тому, что если наука не знает, что есть нечто, то она не может это нечто воспроизвести. Из этого легко видеть, что вы поняли мою позицию неверно. "То есть если вдруг 100 или даже 500 ученых придут к консенсусу по вопросу определения Ии. По логике автора тогда ии вдруг станет возможным" И опять вы не смогли меня прочитать. Если большинство ученых придет к пониманию того, что есть интеллект, то наука сможет попробовать создать искусственный интеллект. Не обязательно преуспеет -- как получать пар люди знали тысячи лет, но практичного парового двигателя до XVIII века не было. Но сможет попытаться, да. А вот пока наука не знает, что такое интеллект, она не может построить искусственный интеллект. Так же, как не умея получать пар никто не может построить работоспособный паровой двигатель.
    +
      ещё комментарии
-
-1
+
Да, совсем забыл. Осн преимущество ЧатГПТ - трансфер знаний. Вот например взять валлийский язык (около 600 тыс носителей). Например на валлийском языке не пишут никто из спецов по квантовой механике, и переводы не делают. Так вот, ЧатГПТ вполне может очень быстро и вменяемо перевести квантовую механику, последние статьи и учебник, на валлийский, и таким образом, снимает языковые барьеры для знаний между неосновными мировыми языками. Вот это очень нужно и важно. Источник - thebell.io.
А почему ученые боятся признать, что разум человека принципиально не отличается от разума мухи, а просто он _сложнее_ на много порядков?
    Семен
    04.04.2023
    -
    0
    +
    Они уже давно это знают. Советую зачитать кн. Мэтью Кобб. "Мозг - биография". В т.ч. там описано, что даже червь с его 328 нейронами в принципе делает то же самое, что и любой человеч разум - обучается, реагирует на градиенты хим стресса, и питания, и т.д.
    +
      ещё комментарии
      -
      1
      +
      Есть такое определение: "Ум – способность прогнозировать последствия событий, включая свои действия." Притом достигать целей можно и простым перебором, а тем более с опорой на опыт (изобретать он часто мешает). Так большинство делает почти всегда: применяет теорему Байеса, не зная о ней. Близко к теме – "культурный драйв". ИИ в роли интегратора данных, формулировщика основных вариантов, трендов и версий был бы очень полезен. Примерно так он применяется для анализа снимков (МРТ и т.п.), чтобы обратить внимание врача на возможную опухоль. Осталось научить его говорить "Я не знаю"...
    Александр
    04.04.2023
    -
    1
    +
    Ученые, как и описано в тексте выше, на данный момент не имеют никакого единого мнения о природе разума, как и его удовлетворительного определения -- а пока этого нет, прийти к мнению о его единстве у мухи и человека затруднительно.
    +
      ещё комментарии
      Василий
      04.04.2023
      -
      0
      +
      Что такое "природа разума"? Ученым нужно строгое определение? Его никогда не и будет :) Потому что степень разума это просто степень сложности.
        Александр
        04.04.2023
        -
        0
        +
        Природа разума -- это то, что он собой представляет. Как работает, как устроен. "Ученым нужно строгое определение?" Ученым нужно хоть какое-то удовлетворительное его определение (которого пока нет), потому что наука не умеет удовлетворительно воспроизводить искусственно те естественные явления, к которым не имеет удовлетворительного определения.
          Mikhail
          07.07.2023
          -
          0
          +
          Удовлетворительно? Не похоже что не умеет. Для ряда задач генеративные сети сегодняшние вполне удовлетворительно подходят, в т.ч. которые считают интеллектуальными. Для части задач нет. Чем мощнее этот "неИИ", тем для большего числа задач он будет удовлетворительно подходить. Если оно выглядит как утка, ходит как утка, летает как утка, крякает как утка - у людей это принято называть уткой. Поэтому пусть не строго научно и не формально, но в обиходе это называют "интеллект". И чем мощнее этот не строго опредленный интеллект, тем больше он похож на человеческий, или его превосходит по практическим результатам. В итоге по все большему числу практических применений люди пойдут лесом (в части случаев и в прямом смысле, т.к. кто-то уйдет от ИИ в леса, пока ИИ туда не добрался - правда, вряд ли это надолго).
            Александр
            07.07.2023
            -
            0
            +
            "Если оно выглядит как утка, ходит как утка, летает как утка, крякает как утка – у людей это принято называть уткой." Вот только чатжпт и его аналоги не имеют никаких признаков интеллекта. В этом проблема вашей аналогии.
-
0
+
Может быть, стоит дать ссылки на другие ресурсы по теме чатГПТ. На thebell.io две отличнейших статьи-лонгрида, дающих генезис развития чатГПТ, и отличное введение в проблематику, открыты для всех, не под пейволлом.
-
0
+
Похоже, эти старые пердуны вообще сбрендили с катушек. В гугло-поиске тоже появились продвинутые возм-ти, пререферативно итоги выдаются, это очень удобно, и что же, его тоже закрыть ?
-
0
+
Начало цитаты -- "Он [Антонио Наставник] говорил о простом и важном... Он говорил, и его понимали, ибо смысл его речей был издавна, хотя и смутно, памятен слушавшим, впитан с молоком матери. Он говорил о насущном, о неизбежном, о том, что касалось и волновало всех, – о конце света и о Страшном суде, час которого может настать раньше, чем жители перекроют крышу церкви. Каково будет господу нашему увидеть небрежение, в котором содержится дом его? .... Он говорил о смерти, которая приведет чистого душой к счастью и вечному ликованию. Разве люди подобны зверям? – спрашивал он. Если нет, то им подобает переступить этот порог, одевшись в свое лучшее, платье, чтобы почтить того, кто встретит их. Он говорил о небесах и о преисподней– обиталище Сатаны, где грешнику уготованы жаровни и гремучие змеи. Он говорил о том, что в безобидных на первый взгляд новшествах проявляется бесовский умысел. " (конец цитаты) (с) Марио Варгас Льоса "Война конца света"
1
2

Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: