Лента новостей









Это интересно
Дарья Троеглазова 30 апреля 2026

Новосибирский пожарный рассказал о буднях МЧС и необычных случаях на работе

29-летний Станислав М. служит в пожарной части командиром отделения. О том, как юношеская мечта превратилась в реальность и с какими необычными ситуациями сталкиваются сотрудники МЧС — в материале Горсайта.

Путь к профессии: от сомнений к цели

Для сибиряка выбор профессии пожарного был ...

Читать далее...
Технологии
21 февраля 2026 - 15:44
Поделиться

Эксперт рассказал, чем опасно делиться с нейросетями

Лука Сафонов, эксперт по информационной безопасности и бизнес-партнер по инновационному развитию компании «Гарда», предупредил об опасности утечек данных при использовании сервисов с искусственным интеллектом.

Фото: freepik.com, создано ИИ

Он отметил, что загружаемые документы, переписки и другие личные данные могут попасть в руки мошенников. Об этом он сообщил порталу Readovka.news.

По словам специалиста, нейросети могут извлекать конфиденциальную информацию, если им предоставлен доступ к файлам на компьютере. Утечки происходят из-за уязвимостей в системах ИИ и хакерских атак. Даже удалённые переписки сохраняются на облачных серверах, что делает их доступными для злоумышленников. 

Сафонов перечислил, что нельзя передавать нейросетям: паспортные данные, банковские реквизиты, медицинские документы, личные переписки, адреса, телефоны и интимные фото. Он напомнил о крупных утечках, таких? как взлом чат-бота DeepSeek в 2025 году и утечка данных из Chat & Ask AI в 2026 году, когда в сеть попали миллионы записей пользователей. 
Эксперт призвал быть осторожными и не доверять нейросетям личную информацию.

Напомним, ранее Горсайт писал, что IT-эксперт объяснил усталость новосибирцев от нейросетевого контента.

Поделиться новостью:  

Пишите нам:

Почта:

internet@otstv.ru

Подписывайтесь на нас: