Автор Тема: В Китае выпустили свою альтернативу нейросети OpenAI o1  (Прочитано 257 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Китайская компания DeepSeek представила большую языковую модель, способную, по словам её создателей, соперничать с OpenAI o1-preview. Главная особенность нейросети — возможность рассуждать и поэтапно решать поставленную задачу.

Модель под названием DeepSeek-R1-Lite-Preview пока представлена в виде тестовой версии, которая «задумывается» в среднем по 20 секунд. При этом она показывает, как пришла к выданному ответу. В специализированных бенчмарках AIME 2024, MATH и Codeforces китайский ИИ обошёл o1 от OpenAI в некоторых дисциплинах.

Модель можно протестировать на официальном Просмотр ссылок доступен только зарегистрированным пользователям после регистрации с лимитом в 50 запросов на день. Исходный код и API будут доступны всем желающим в ближайшее время. Нейросеть может отвечать на русском языке, если её попросить, но цепочка рассуждений при этом всё равно будет выдана на английском.


Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #1 : 22, Ноября 2024, Пятница, 08:34:20 am »
Я так понимаю, что пока основной упор на кодинг. DeepSeek умеет генерировать код на различных языках программирования, таких как Python, JavaScript, Java, C++, и других.

Вот Просмотр ссылок доступен только зарегистрированным пользователям можно прочитать про различные бенчмарки и характеристики LLM с открытым кодом. Китайцы красавцы!

DeepSeek Coder можно развернуть локально на компьютере. При этом, как заверяют китайцы:

- Предварительно обучено на 2 триллионах токенов на более чем 80 языках программирования.
- Различные размеры моделей ( 1.3B , 5.7B , 6.7B и 33B ) для удовлетворения различных требований.
- Размер окна составляет 16 КБ , что поддерживает автодополнение и заполнение кода на уровне проекта .
- Самая высокая производительность среди моделей с открытым кодом.
- Открытый исходный код и бесплатное для исследовательских целей и коммерческого использования .


Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #2 : 22, Ноября 2024, Пятница, 08:48:48 am »
Кстати, китаец легко решил олимпиадную задачу, на которой я тестирую чатботы, причём очень красиво, с использованием теории графов:

Решение задачи:

Условие задачи:

- У Пetyи 28 одноклассников, всего в классе 29 учеников (включая Пety).

- У каждого из 28 одноклассников различное число друзей в классе.

Анализ:

- Каждый из 28 одноклассников имеет уникальное количество друзей в классе.

- Возможные значения числа друзей для каждого ученика: 0, 1, 2, ..., 28.

- Невозможно одновременно иметь ученика с 0 друзьями и ученика с 28 друзьями.

Логика решения:

- Сумма степеней (числа друзей) всех вершин в графе должна быть четной (по лемме о рукопожатиях).

- Исключаем одно значение степени (например, 14) для того, чтобы избежать противоречия.

- Сумма степеней для оставшихся 28 одноклассников: 406 - 14 = 392 (четная).

- Petya's степень должна быть такой, чтобы общая сумма оставалась четной. Если исключаем 14, Petya's степень также должна быть 14.

Заключение:

- Petya имеет 14 друзей в классе.

Ответ: У Пetyи 14 друзей в классе.

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #3 : 22, Ноября 2024, Пятница, 08:56:08 am »
Причём китаец использовал алгоритм Хавел-Хакими (Havel-Hakimi algorithm). Я попросил пояснить суть этого алгоритма. Ответ:

Алгоритм Хавел-Хакими используется в теории графов для определения, является ли данная последовательность степеней графической, то есть может ли она соответствовать простому графу. Алгоритм работает следующим образом:

1. Сортировка: Сортируйте последовательность степеней по убыванию.

2. Удаление и уменьшение: Удалите первый элемент (самую большую степень) и уменьшите следующие 'd' элементов на 1, где 'd' - это значение удаленного элемента.

3. Повторение: Повторяйте процесс с новой последовательностью.

4. Проверка: Если вы можете сократить последовательность до всех нулей, то она является графической; в противном случае, нет.

Пример: Пусть последовательность степеней равна [3, 3, 2, 2, 1, 1].

1. Сортировка: [3, 3, 2, 2, 1, 1]

2. Удалить 3 и уменьшить следующие 3 элемента на 1: [2, 1, 1, 1, 1]

3. Сортировка: [2, 1, 1, 1, 1]

4. Удалить 2 и уменьшить следующие 2 элемента на 1: [0, 0, 1, 1]

5. Сортировка: [1, 1, 0, 0]

6. Удалить 1 и уменьшить следующие 1 элемент на 1: [0, 0, 0]

7. Сортировка: [0, 0, 0]

Таким образом, последовательность является графической.

Дополнительные сведения:

- Лемма о рукопожатии: Сумма степеней всех вершин в графе должна быть четной.

- Применение: Алгоритм Хавел-Хакими широко используется в сетевом анализе и других областях, где применяется теория графов.

Этот алгоритм предоставляет систематический способ определения возможности построения простого графа из заданной последовательности степеней.


Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #4 : 22, Ноября 2024, Пятница, 09:43:02 am »
Вот ещё одна Просмотр ссылок доступен только зарегистрированным пользователям про DeepSeek и математику. Это репозиторий на GitHub.

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #5 : 10, Декабря 2024, Вторник, 16:59:20 pm »
В DeepSeek добавили поиск по интернету. Нужно открыть chat.deepseek.com и включить поиск по интернету. Я потестировал. Китайцы на высоте. Но не признаются, как сканируют интернет, какой user-agent их бота. Традиционно хитрожопят.

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #7 : 27, Января 2025, Понедельник, 17:22:15 pm »
Китайская модель искусственного интеллекта от стартапа DeepSeek впервые обошла ChatGPT, став самым рейтинговым бесплатным приложением, доступным в App Store. Модель также "вызвала панику по всей Кремниевой долине".

Об этом сообщает американский телеканал СNBC.

DeepSeek - это малоизвестная лаборатория искусственного интеллекта из Китая. Ее языковые модели "могут превзойти лучшие американские аналоги, несмотря на то что китайские построены дешевле и с менее мощными чипами", пишет сайт канала.

DeepSeek представила свою модель в конце декабря. На ее создание ушло всего два месяца и менее 6 миллионов долларов, при этом использовались более старые чипы от Nvidia (напомним, новейшие, на которых работает американский ИИ, Джо Байден запретил поставлять в Китай).

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #8 : 27, Января 2025, Понедельник, 19:30:10 pm »
NVIDIA потеряла почти $400 миллиардов из-за китайского чат-бота

Китайская компания DeepSeek наделала много шума своим одноимённым чат-ботом и буквально обрушила многие рынки. На фоне её успеха у многих западных технологических компаний резко упали акции, а больше всех пострадала NVIDIA.

Суматоху навело заявление DeepSeek, что для обучения одной из самых передовых языковых моделей DeepSeek V3 потребовалось 2048 процессоров NVIDIA и всего 5,6 миллиона долларов. Для сравнения, Илон Маск для обучения своей ИИ-модели Grok 2 использовал 20 000 процессоров, а для Grok 3 — 100 000 чипов. В планах у него — довести число ускорителей до миллиона. Кроме того, глава OpenAI Сэм Альтман рассказал, что на обучение GPT4 было потрачено более 100 миллионов долларов.

«У DeepSeek явно нет доступа к такому количеству вычислительных ресурсов, как у американских компаний. Но каким-то образом им удалось разработать модель, которая выглядит очень конкурентоспособной», — заявил аналитик Raymond James Срини Паджури.

После объявления DeepSeek эксперты усомнились в целесообразности многомиллиардных инвестиций западных компаний в развитие ИИ. Как результат, акции NVIDIA рухнули на 12%, что снизило капитализацию компании сразу на 384 миллиарда долларов. Акции Broadcom и Marvell Technology упали на 11%, а Alphabet, Microsoft и Meta* — от 1,8% до 3,6%. На это событие отреагировал и рынок криптовалют: цена Bitcoin резко упала со 105 000 до 97 750 долларов.

Оффлайн Сергей Горбачевский

  • Administrator
  • Знаменитый писатель
  • *****
  • Сообщений: 84779
  • Пол: Мужской
  • Есть вопросы? Пишите в личку
    • Награды
Re: В Китае выпустили свою альтернативу нейросети OpenAI o1
« Ответ #9 : 26, Февраля 2025, Среда, 14:03:51 pm »
По информации источников Reuters, компания из Ханчжоу планировала выпустить модель R2 в начале мая, но теперь хочет сделать это "как можно раньше". Ожидается, что новая модель будет лучше справляться с кодингом и сможет рассуждать не только на английском языке.

Сообщается, что хедж-фонд, которому принадлежит компания — High-Flyer. — инвестировал 1.2 млрд юаней в два суперкомпьютерных AI-кластера в 2020-2021 годах, еще до запрета на экспорт чипов Nvidia A100 в Китай. Второй кластер, Fire-Flyer II, включал около 10,000 этих чипов.

Кроме того, до полного запрета в октябре 2023 года High-Flyer приобрел до 50 тысяч чипов H800 — урезанная версия H100 для китайского рынка, где была уменьшена скорость обмена данными. Правда, говорят, что за счет низкоуровневых оптимизаций частично эти ограничения удалось обойти.

Сам Лян признает, что главной проблемой остается эмбарго на высокопроизводительные чипы: "Наша проблема никогда не была в финансировании. Это эмбарго на высокопроизводительные чипы."


Теги: deepseek