Боты наступают: безопасно ли пользоваться искусственным интеллектом

11:13, 11 февраля 2026

© Фото: Zakon.kz

В Казахстане наблюдается стремительно растущий интерес к искусственному интеллекту. Системы ИИ предоставляют информацию для учебы, работы и дают советы для личной жизни. Эксперты уверены: ничто не проходит бесследно. Чем опасно постоянное и близкое общение с нейросетями, выяснял Zakon.kz.

Большинство современных людей ежедневно обращается к виртуальным помощникам. Им задают от самых сложных вопросов наподобие "В чем смысл жизни?" до удивительно простых: что приготовить из перечисленных продуктов, какая погода будет завтра, как сформулировать сообщение по определенной проблеме и многие другие.

Особенность систем искусственного интеллекта в том, что с ними можно вести диалог, общаться непрерывно и на любые темы. ChatGPT готов целыми днями помогать вам на работе, поднимать настроение по вечерам и даже ночью подсказать, как не оплошать.

Одним ИИ заменяет наставников, другим – психологов, а кому-то – и приятелей. Некоторые находят в компьютерном разуме настоящего друга, которому можно выговориться.

AI, ИИ, искусственный интеллект, общение с ChatGPT, фото - Новости Zakon.kz от 11.02.2026 11:13

Фото: reddit.com

Однозначно оценить влияние искусственного интеллекта на человечество сложно, считают эксперты. Постоянное использование ChatGPT и аналогичных ИИ-помощников, безусловно, приносит пользу разным сферам. Благодаря "всезнающему" инструменту и персонализированным объяснениям обучение идет быстрее, растет производительность труда, происходит автоматизация рутинных задач (составление писем, планов, резюме и прочего). Но есть и обратная сторона медали.

"Главный риск – интеллектуальная атрофия: привыкая получать готовые формулировки и решения, мозг отвыкает от глубокого анализа, критической оценки и самостоятельного поиска. Это ведет к иллюзии компетентности, когда поверхностный, но убедительный ответ ИИ принимается за истину, и к девальвации реальной экспертизы. Вред усугубляется психологической зависимостью от "всезнающего" и всегда доступного помощника, что снижает толерантность к сложностям реального общения и самостоятельного мышления. Вред от нерефлексивного использования ИИ заключается не в отдельных ошибках, а в постепенной эрозии человеческого мышления – способности самостоятельно мыслить, действовать и нести ответственность. Постоянный аутсорсинг ментальных задач (от формулирования мыслей до анализа) ведет к цифровой амнезии – ослаблению нейронных связей, ответственных за критическое мышление, память и глубокий анализ. Мозг, привыкая к быстрым, готовым ответам, теряет мыслительную выносливость", – считает главный научный сотрудник Научно-технологического парка Казахского национального медицинского университета им. С.Д. Асфендиярова Тимур Салиев.

О привыкании людей к виртуальным помощникам говорил и президент Касым-Жомарт Токаев. 28 января 2026 года на совещании в Агентстве по финансовому мониторингу глава государства обратил внимание на негативные последствия зависимости от искусственного интеллекта.

"Замечаю, что люди стали полагаться на ИИ, уже перестали даже писать свои выступления, поручают это Grok, ChatGPT. То есть люди обучаются не так, как положено, не получают соответствующее образование, а учатся тому, как использовать этот интеллект в разных вариациях. Это очень серьезный побочный эффект", – заявил Касым-Жомарт Токаев.

Глава государства подчеркнул, что искусственный интеллект должен служить дополнением, а не заменой человеческого мышления.

Медиапространство наводняют тексты, видео, идеи и решения, генерируемые цифровым умом по предыдущим запросам. Это размывает понятия оригинальности, авторского стиля и личной ответственности. А за счет того, что искусственный интеллект может почти все, многие рискуют скоро остаться без работы.

В то же время появятся новые профессии. Уже востребованы специалисты, умеющие внедрять ИИ в бизнес-процессы. В банках, IT-компаниях, телекоммуникационных и маркетинговых агентствах появляются AI-интеграторы. Они помогают предпринимателям переходить от точечных экспериментов с нейросетями к реальному применению в аналитике, коммуникациях и автоматизации.

"Для специалистов это "коллега-синтезатор", дающий быстрый доступ к смежным знаниям – программист может понять основы маркетинга, а ученый – структурировать сложный отчет. Польза искусственного интеллекта зависит от осознанности его применения", – подчеркивает ученый Тимур Салиев.

ИИ-помощники, особенно их платные версии, изумляют своими возможностями. Нейросети могут:

  • генерировать картинки, видео, музыку, тексты, презентации, сценарии;
  • искать ответы на любые вопросы, конспектировать документы с выделением ключевых моментов;
  • переводить текстовые материалы на другие языки;
  • разрабатывать алгоритмы выполнения задач;
  • помогать в человеческом общении;
  • писать и исправлять код разных программ.
"Мы, программисты, тоже пользуемся чатом GPT и другими виртуальными помощниками для составления несложного кода, который не является ключевым в процессе разработки необходимых функций, но отнимает несколько часов. Проще говоря, системы AI экономят время. Благодаря им у нас на разработку тех или иных функций уходит не неделя, а три дня, к примеру. Но конфиденциальную, коммерческую и тому подобную информацию, содержащую корпоративные сведения, мы с коллегами-разработчиками в системы искусственного интеллекта не загружаем ни в коем случае. Можем попросить ИИ лишь на примере подобного кода создать аналогичный под наши требования по ТЗ. Я заметил, что некоторые задания ИИ выполняет коряво, потом приходится переделывать. Спасибо и на том, чем помогает", – сказал разработчик информационных систем Жанибек Ержан.

Системы искусственного интеллекта популярны по нескольким причинам: простота пользования, высокая скорость выполнения поставленных задач и точность. К примеру, ChatGPT способен понимать не только конкретный вопрос, но и контекст, в котором он был задан. Программа использует обширную базу источников и алгоритмы, позволяющие генерировать наиболее подходящие ответы. При этом доверять "всезнайке" на 100% не стоит: иногда он, как и человек, ошибается, брешет и вводит в заблуждение. Важно проверять информацию, взятую у ИИ. Вызывает сомнение и безопасность персональных данных.

"Теоретически наши запросы и сведения о нас из подсказок должны сохраняться на серверах OpenAI. Если вдруг они будут взломаны, то, возможно, злоумышленники похитят и личные данные, например, IP-адрес, приблизительное местонахождение пользователя, его адрес электронной почты и пароль. А вот доказать утечку именно от интеллектуальных помощников практически невозможно. Остается надеяться, что защита централизованного хранилища AI не допустит попадания персональных данных в общественное пространство. Как устроена система безопасности серверов ИИ, знают только ее разработчики", – отметил эксперт.

Фото: freepik

В марте 2023 года разработчик ChatGPT – компания OpenAI – обнаружила серьезную проблему, из-за которой чат-бот несколько часов не работал. В это время некоторым пользователям внезапно оказалась доступна чужая переписка. Сообщалось, что в открытый доступ могла попасть даже платежная информация подписчиков улучшенной (платной) версии приложения ChatGPT-Plus.

"В ходе более тщательного расследования мы обнаружили, что та же ошибка могла привести к непреднамеренному отображению информации, связанной с платежами, у 1,2% подписчиков ChatGPT Plus, которые были активны в течение определенного, девятичасового, периода. За несколько часов до отключения ChatGPT некоторые пользователи могли видеть имя и фамилию другого активного пользователя, адрес электронной почты, платежный адрес, тип кредитной карты и последние четыре цифры только номера кредитной карты, а также срок ее действия. Полные номера кредитных карт ни в какой момент не были раскрыты", – заверили в OpenAI.

Компания-разработчик исправила ошибку и опубликовала отчет об инциденте. Но такие проблемы могут повториться. Специалисты предупреждают: любой онлайн-сервис подвержен риску взлома. Тем более что армия хакеров увеличивается и развивается с каждым днем. Становится больше и мошенников, которые осваивают ИИ.

Широко распространенная угроза – фишинговые сообщения. Их бывает легко распознать, поскольку в тексте встречаются орфографические и пунктуационные ошибки или стилистически неверные конструкции. Это происходит потому, что аферисты пишут на не родном для них языке. Благодаря ChatGPT злоумышленники по всему миру получили возможность составлять предложения грамотно. Языковая модель обучена на огромном пласте данных, мошенникам проще формулировать правдоподобные письма в стилистике компании, от имени которой они действуют. Кроме того, технологии позволяют запустить фальшивого, но вполне убедительного чат-бота для работы с клиентами. Поэтому фишинг стал качественным, а раскусить недоброжелателей теперь труднее.

Эксперты советуют не делиться с виртуальными помощниками конфиденциальной информацией и предупреждают, что запросы из памяти чат-бота не удаляются. Переписка сохраняется для дальнейшего обучения системы.

С учетом развития искусственного интеллекта возможны два сценария будущего, полагают ученые.

"Позитивный сценарий: ChatGPT, подобно калькулятору, станет инструментом, освобождающим время для высокоуровневого творчества и стратегического мышления, сделав проверку фактов и глубокую экспертизу еще более востребованными. Негативный: массовая зависимость от ИИ приведет к когнитивному расслоению общества на думающую элиту (которая читает книги, новости и привыкла сама анализировать, делать выводы) и пассивных потребителей готовых решений. Таким образом, конечный результат определяется не технологией, а пользователем: используем ли мы ИИ как инструмент для расширения возможностей или как костыль, ослабляющий наши интеллектуальные мускулы", – поделился мнением Тимур Салиев.

Эксперты резюмируют: виртуальные помощники – это инструменты, которые повышают продуктивность. Но они не заменяют людей полностью. Для получения максимальной пользы необходимо использовать системы ИИ с умом и не давать расслабляться своему мозгу.

Источник: zakon.kz


Подписывайтесь на наш Telegram-канал. Будьте в курсе всех событий!
Мы работаем для Вас!