Аве. Спустя 8 лет, я достаточно уверен в своем курсе и готов выкатить Стальной II . Это более сложный и глубокий распил самодисциплины, фокусировки, приоритезации, с фреймворками, скиллсетами и инвариантами применения всего этого и кучей примеров. Теперь с картинками . Проходить его не имеет смысла ...
Сегодня официальный конец однополярного мира. Китай запустил термоядерный реактор, который проработал net positive целых 1000 секунд. (Это лучше в 150 раз чем американский аналог). Т.е. технически китайцы примерно на 5 лет впереди. 16,6 минут, это уже близко к границе в 40 минут, при которых эти шту...
Языковая модель обучается на семплах с которыми взаимодействует. Когда она обучается на научно подготовленных данных - она умнеет. Когда на запросах интернет-обрыганов с 3мя классам - она деградирует.
А в чем заключается задание? Найти самую маленькую фигуру? Да, выделить самую малую. В этом паттерн. Никакой ИИ не может эту задачу решить. И не сможет с текущими технологиями. Лет 40 мб еще. :sorry: Не очень понятно что этот знак вопроса значит Такую картинку скармливают ИИ, чтобы он знал на что о...
Все разработчики AI сразу фиксят любые вещи которые видят в интернете, т.к. от этого зависит капитализация их компании, вплоть до 100.000 раз разница может быть. Поэтому нам платят деньги в том числе и затем, чтобы проверить настолько ли "могущественен" искусственный интеллект компаний X, ...
Вот тут говорят что новая модель ГПТ о3 просто в космос рванула по сравнению с предыдущими. Херня, это всё еще трансформер, он может решать только известные задачи. Generative pre-trained transformer имеет все ограничения того что он трансформер просто по своей сути. Это всё корм для инвесторов. Ве...
Так а существует же овер много задач где нужен трансформер хз,решение неизвестных задач сколько занимают в общих вычислениях? Всё верно, да, существует много таких задач алгоритмических. Другое дело, что никакие задачи с неизвестной компонентной трансформеры решать не могут. Т.е. автомобиль на авто...
Следующим шагом запилят дополнительный уровень абстракции Не запилят, математика запрещает такие вещи. LLM это 1/10 того что уже известно в математике. :sorry: LLM это просто такое матричное векторное 40.000-мерное пространство, если говорить о gpt-3o. В нем интеллекта не больше, чем в векторном тр...
Это убьет внутренний рынок ИИ в США. Заградительные меры приводят к отсутствию внешней конкуренции и стагнации в сфере. Именно поэтому американские автомобили такое говно по сравнению с японскими, немецкими и корейскими.
Кстати эти заградительные меры не сработают, потому что рандомный чел из Филиппин изменит 3 строчки Open Source кода DeepSeek и вот вам PhilippineSeek, на которое ограничения не работают. Регуляция никогда за софтом не поспеет.
Такая регуляция не работает, эти законы принимают 80-летние деды, не понимающие сути. Можно три строчки поменять и обфусцировать код, не давая опен-сорс. А еще можно автоматизацией каждые полминуты выпускать клон этого ИИ под разными именами, пусть и рандомными. Как ты будешь регулировать то что вых...