
10 главных новостей ИИ за 24 декабря 2025 года
24 декабря 2025 года сфера искусственного интеллекта отметилась рядом значимых событий в России и мире. В этом дайджесте мы собрали 10 главных новостей ИИ (AI) дня – от разработок российских AI стартапов до глобальных технологических прорывов, новых продуктов IT-гигантов, а также инициатив в области государственного регулирования и обсуждения этики и безопасности ИИ. Кратко рассказываем каждую новость, подчеркивая ее значимость для индустрии искусственного интеллекта.
ИИ-разработки и стартапы в России
Яндекс Афиша тестирует AI-функцию «Вид с места» для зрителей
Онлайн-сервис «Яндекс Афиша» начал испытания новой функции с применением технологий искусственного интеллекта – опции «Вид с места», позволяющей покупателям билетов увидеть, как будет выглядеть сцена из выбранного ими кресла. Система генерирует изображение обзора зала для каждого места, используя комбинацию алгоритмов компьютерного зрения, анимации, 3D-графики и современных генеративных моделей. Достаточно нескольких фотографий зала, сделанных обычным смартфоном – на их основе ИИ воссоздает 3D-модель пространства и формирует реалистичную картинку вида из каждой точки. Нововведение уже запущено для тестирования на ряде крупных площадок Москвы и в перспективе может быть расширено на другие театры и стадионы, значительно улучшая пользовательский опыт при выборе билетов.
Российский планировщик SingularityApp внедрил личного AI-ассистента
Российский стартап SingularityApp – популярный цифровой планировщик задач – первым на рынке РФ интегрировал полноценного AI-ассистента для управления личными делами. Новый умный помощник прямо встроен в логику сервиса: он анализирует задачи пользователя, дедлайны, шаблоны проектов и может генерировать подсказки и расписания, оптимизируя загрузку времени. По оценкам разработчиков, использование ИИ сократит рутинную нагрузку при планировании на 30–50%. Важно, что SingularityApp обеспечивает прозрачность и гибкость использования AI технологий – пользователь может самостоятельно выбрать провайдера ИИ (международные OpenAI, Anthropic либо российские модели Сбера GigaChat, YandexGPT и др.) для генерации ответов и рекомендаций. Ассистент работает в режиме диалога (ответы на вопросы, генерация идей) или в режиме агента, который сам анализирует список дел и предлагает план на день/неделю. Такая интеграция демонстрирует переход российского бизнеса от экспериментов с нейросетями к их системному применению в повседневных приложениях.
Глобальные технологические прорывы
GPT-5 самостоятельно решила математическую задачу – прорыв в сотрудничестве человека и ИИ
Швейцарский математик Йоханнес Шмитт сообщил, что новейшая модель GPT-5 от OpenAI, работающая в тандеме с исследователем, впервые решила одну из открытых математических задач. По его словам, искусственный интеллект предложил элегантное доказательство, использовав неожиданные методы из другой области алгебраической геометрии, вместо традиционных подходов. Результаты еще проходят независимую проверку, однако уже усилили дискуссию о том, способен ли ИИ делать вклад в фундаментальную науку. Примечательно, что в представленной работе особо уделено внимание прозрачности: каждый фрагмент решения помечен, кем он получен – человеком или AI-моделью, со ссылками на запросы и расшифровки диалогов. Такой подход обеспечивает высокий уровень отслеживаемости вклада GPT-5 и людей, хотя автор отмечает, что столь детальная маркировка трудоемка и трудно масштабируема. Тем не менее, данный случай демонстрирует новые возможности AI в науке и ставит вопросы об этике авторства открытий, сделанных при участии нейросетей.
ИИ помог раскрыть механизм сверхпроводимости нового материала
Ученые из Университета Тохоку (Япония) совместно со специалистами Fujitsu применили искусственный интеллект для анализа результатов экспериментов и сумели разгадать природу сверхпроводимости в новом соединении – цезий ванадий сурьма (CsV₃Sb₅). С помощью AI-платформы Fujitsu Kozuchi были обработаны огромные массивы спектроскопических данных (ARPES), и алгоритм автоматически выявил ключевые причинно-следственные связи в структуре материала. В результате стало ясно, что механизм сверхпроводимости обусловлен взаимодействием электронов трех элементов – ванадия, сурьмы и цезия. Применение ИИ-технологии позволило сократить сложность графа взаимосвязей более чем в 20 раз, резко ускорив анализ и выделение главных факторов, влияющих на свойства материала. Авторы исследования отмечают, что новый AI-подход откроет путь к созданию высокотемпературных сверхпроводников и энергоэффективных устройств, а уже в марте 2026 года Fujitsu планирует предоставить пробный доступ к платформе Kozuchi другим исследовательским группам. Этот прорыв демонстрирует, как AI технологии способны ускорять открытия в материаловедении и решать задачи, ранее требовавшие долгих лет научной работы.
Новые продукты и решения от ИТ-гигантов
OpenAI выпускает GPT-5.2 в ответ на прорыв Google Gemini 3
Компания OpenAI объявила о запуске новой модели GPT-5.2, призванной поднять планку возможностей генеративного ИИ для пользователей. По заявлению разработчиков, GPT-5.2 обладает улучшенным «общим интеллектом», лучше справляется с написанием кода и пониманием длинных контекстов, а также умеет эффективнее выполнять сложные многошаговые задачи. Выход обновленной модели произошел на фоне усиления конкуренции: ранее в ноябре корпорация Google представила свою передовую модель Gemini 3, которая возглавила ряд отраслевых рейтингов по качеству ИИ. Глава OpenAI Сэм Альтман даже ввел внутренний режим «код красный», временно приостановив второстепенные проекты и бросив все силы на ускоренную доработку GPT-5.2 в ответ на успехи конкурента. В результате OpenAI удалось выпустить GPT-5.2 уже в декабре, начав поэтапно подключать ее в ChatGPT (сперва для платных подписчиков). Новая модель, как ожидается, принесет пользователям еще больше пользы – она лучше справляется с созданием таблиц, презентаций и управлением проектами. Примечательно, что одновременно было объявлено о стратегическом партнерстве: компания Disney инвестирует $1 млрд в OpenAI и разрешит использовать персонажей Star Wars, Pixar и Marvel во встроенном AI-генераторе видео. Эти шаги показывают, как крупнейшие AI-компании наращивают возможности своих моделей и экосистем, соревнуюсь за лидерство в индустрии.
Microsoft планирует переписать код на Rust с помощью ИИ к 2030 году
В корпорации Microsoft озвучена амбициозная инициатива по радикальной модернизации своего программного обеспечения. Ведущий инженер Microsoft Гален Хант, проработавший почти 30 лет в компании, поставил цель: к 2030 году заменить каждую строку кода, написанную на языках C и C++ в продуктах Microsoft, на код на языке Rust – при этом часть новой кодовой базы будет генерироваться искусственным интеллектом. Хант объявил об этой задаче в профессиональной сети, подчеркнув, что комбинация вручную написанного Rust-кода и AI-генерации позволит избавиться от устаревших и потенциально небезопасных фрагментов на C/C++. Язык Rust известен повышенной безопасностью памяти и уже применяется в ядре Linux, и Microsoft намерена таким образом повысить надежность и безопасность своих продуктов. Переход на Rust при участии AI – часть более широкой стратегии Future of Scalable Software Engineering, которая разрабатывается внутри Microsoft. Этот шаг отражает общий тренд: крупные компании используют AI технологии не только в пользовательских сервисах, но и во внутренних процессах разработки, чтобы ускорить создание и рефакторинг сложных системного кода.
Государственное регулирование и политика ИИ
Путин: Россия не будет запрещать иностранные нейросети при соблюдении законов
Президент РФ Владимир Путин в рамках ежегодной прямой линии заявил, что Россия не планирует вводить запрет на использование зарубежных сервисов на основе искусственного интеллекта. Глава государства подчеркнул, что основным требованием со стороны российских регуляторов останется строгое соблюдение такими AI-платформами законов РФ. «Мы ничего не запрещаем, мы требуем соблюдения законов», – отметил Путин, отвечая на вопрос об отношении к популярным иностранным нейросетям. Это заявление дает понять, что, несмотря на геополитическую напряженность и развитие собственных отечественных ИИ-платформ, российские власти готовы допускать в страну иностранные AI-технологии – при условии, что их работа будет прозрачна для надзорных органов и подчинена российским правилам по защите данных и прочим нормам. Эксперты оценивают эту позицию как попытку найти баланс между инновациями и суверенитетом: не ограничивать доступ бизнеса и пользователей к передовым решениям искусственного интеллекта, но сохранить контроль над соблюдением национальных интересов и законодательства.
В США принят указ о единой национальной политике в сфере AI
В то время как в России делают акцент на соблюдении законодательства ИИ-сервисами, в США федеральное правительство решило централизовать регулирование искусственного интеллекта. 11 декабря 2025 года президент США Дональд Трамп подписал новый Executive Order (указ) об «обеспечении национальной политики в сфере ИИ», направленный на защиту американских AI-инноваций от “чрезмерных ограничений” на уровне штатов. В 2025 году отдельные штаты США приняли десятки собственных законов об ИИ, и Белый дом выразил обеспокоенность, что такая разрозненность угрожает позиции США в глобальной гонке AI-технологий. Указ устанавливает, что политика США – поддерживать глобальное лидерство в ИИ через минимально обременительную национальную регуляторную рамку. Для этого Министерству юстиции поручено создать специальную группу по надзору за законодательством об ИИ (AI Litigation Task Force), которая будет выявлять и оспаривать штатные законы, мешающие развитию ИИ-индустрии. Более того, вводится принцип условности федерального финансирования: штатам будет сложнее получить средства, если их локальные акты противоречат федеральной политике в сфере AI. Документ прямо нацелен на предотвращение ситуаций, когда требования штатов вынуждают алгоритмы ИИ искажать результаты (например, чтобы избежать дискриминации) или нарушают свободу слова разработчиков AI-моделей. Таким образом, администрация Трампа пытается провести единую линию, чтобы «США выиграли гонку ИИ», обеспечив одновременно и защиту граждан (от цензуры, нарушения прав, угроз для детей), и максимальное пространство для инноваций без излишнего регулирования.
Этика, безопасность и прозрачность ИИ
Учёный сравнил галлюцинации нейросетей с «алгоритмической шизофренией»
На фоне роста применения генеративных моделей в различных сферах российские исследователи анализируют их влияние на мышление и общество. Петербургский ученый Растям Алиев опубликовал работу, в которой назвал склонность больших языковых моделей к галлюцинациям проявлением своеобразной «алгоритмической шизофрении». По его мнению, ИИ-алгоритмы не просто искажают реальность, но фактически подменяют ее своей симуляцией, где грань между вымыслом и оригиналом стирается. Алиев проводит параллели с симптомами психических расстройств: если раньше фантасты представляли ИИ как “холодного, логичного андроида”, то современные нейросети напротив демонстрируют что-то похожее на когнитивные искажения и галлюцинации – генерируя вымышленные факты в ответ на сложные вопросы. Ученый даже отмечает, что если попросить чат-бот отвечать в манере больного шизофренией, его ответы порой становятся точнее и детальнее – как будто нейросеть чувствует себя «в своей тарелке» в этом режиме. В своей статье Алиев призывает пользователей помнить об этих особенностях и относиться к результатам, выдаваемым искусственным интеллектом, с осторожностью. «Всегда помните, что ваш собеседник тяжело болен, перепроверяйте за ним всё», – образно предупреждает исследователь. Этот взгляд поднимает этические вопросы о надежности и восприятии ИИ: следует ли доверять решениям, предлагаемым нейросетью, если она может уверенно выдавать ложную информацию? Работы подобного рода помогают привлечь внимание к необходимости методов борьбы с галлюцинациями и обеспечения прозрачности в работе AI-систем.
OpenAI признаёт неустранимую уязвимость AI-браузеров к «prompt injection»
Компания OpenAI столкнулась с серьезным вызовом в области безопасности ИИ. В конце декабря она публично признала, что новые браузеры с функциями ИИ (такие как ее собственный браузер Atlas) принципиально уязвимы перед так называемыми внедрениями скрытых команд, или prompt injections, и полностью устранить эту угрозу, вероятно, невозможно. Prompt injection – это тип атаки, при котором злоумышленник скрывает на Web-странице или в письме специальные инструкции, незаметные для пользователя, но заставляющие AI-агента выполнить нежелательные действия. Исследователи по кибербезопасности уже продемонстрировали такие атаки: например, достаточно спрятать несколько слов в документе Google Docs, и ИИ-браузер может невольно следовать заложенным там вредоносным командам. В OpenAI отмечают, что рост возможностей AI-агентов расширяет и поверхность атаки, а подобные уязвимости сходны с неизбывными социальными инженерными схемами – их можно лишь минимизировать, но не искоренить полностью. В ответ на угрозу OpenAI выбрала необычный путь: разработала собственного «автоматизированного злоумышленника» на базе большой языковой модели. Этот внутренний AI-хакер непрерывно пытается атаковать Atlas в симуляциях, придумывая всё новые способы скрытой передачи команд и помогая разработчикам обнаруживать бреши раньше реальных злоумышленников. Похожим путем идут и другие – в Google и Anthropic делают ставку на многоуровневую защиту и стресс-тесты, в Великобритании рекомендовано сосредоточиться на смягчении последствий атак вместо попыток их полностью предотвратить. Признание OpenAI подчёркивает важность вопросов безопасности и прозрачности ИИ: по мере распространения автономных AI-агентов требуется все больше усилий, чтобы предотвратить их использование во вред и сохранить доверие пользователей к новым AI-сервисов.
