Заголовок
Сначала этот текст должен был стать комментарием к посту GPT-3. Есть проблема побольше, чем потеря рабочих мест, где автор приводит несколько прогнозов, ни один из которых мне не нравится. Нет, прогнозы хорошие, может быть даже сбудутся, но самая главная, как мне видится, опасность – упрощение поиска с помощью нейросетей, там даже не упомянута. А именно она ударит по обществу первой, еще задолго до появления президента-нейросети.
Сначала маленькое вступление. Я весьма далек от нейросетей. Когда-то в 90-х, мне посчастливилось покопаться в библиотеке одного почившего в бозе НИИ. Здание его сдавалось под офисы и библиотека шла в макулатуру. Среди находок была книга "Автоматы и разумное поведение", где описывались советские опыты по использованию нейросетей для задач ориентирования. Взяв оттуда идею М-автомата и слегка ее переработав, я попытался сделать что-то, что сейчас назвали бы разновидностью рекуррентной нейросети, которая должна была обучиться на наборе текстов и отвечать на текстовые же запросы. Правда, текстов для обучения было доступно всего несколько, а самый мощный компьютер, к которому я имел доступ был 386SX с 4-мя мега(sic!)байтами памяти. Тем не менее, поиграв с коэффициентами я получил что-то вроде чат-бота, который мог бредить кусками текста, причудливо их комбинируя. Все попытки улучшить модель уперлись в необходимость ручной оценки результатов, а к этому я был морально не готов и забросил идею. С каким же удивлением я узнал, спустя годы, что кто-то всё же оказался неленив в достаточной степени и совершил нечто подобное в гораздо большем масштабе, создав Chat-GPT! Хотя Chat-GPT работает на несколько иных принципах чем мой АМИН (Ассоциативная Модель ИНтеллекта, как я ее назвал тогда, не без пафоса), тем не менее, я, вероятно, в достаточной мере понимаю, как эта штука работает и чего от нее можно ожидать. И, глядя на общий энтузиазм по поводу чат-ботов, я испытываю серьезное беспокойство.
Прежде всего, меня удручает то, что многие смотрят на чат-бота как на некоторое, может быть еще недостаточно развитое, но, тем не менее, разумное существо, обладающее знаниями. Нужно очень четко понимать, что это, по сути, весьма сложный, но всё же автомат, который выполняет заложенную в него программу. Разумными были те, кто его обучил, потратив огромное время и ресурсы на разметку – указание того, что правильно, а что нет. Сам бот не может этого определить, для этого нужно быть разумным существом, которым он не является. Однако, если вы зададите ему вопрос о правильности того или иного утверждения, он ответит совершенно свободно. Но будет ли ответ правильным?