В этой статье я расскажу, как сделать своими руками две умные колонки, полностью поддерживающие русский язык:1) На микроконтроллере esp32s3, используя XiaoZhi2)В этой статье я расскажу, как сделать своими руками две умные колонки, полностью поддерживающие русский язык:1) На микроконтроллере esp32s3, используя XiaoZhi2)

Умная колонка своими руками

2026/03/05 01:13
15м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]
f004232723b92fffa9f81ce28a0ef9d5.jpg

В этой статье я расскажу, как сделать своими руками две умные колонки, полностью поддерживающие русский язык:

1) На микроконтроллере esp32s3, используя XiaoZhi

2) На Raspberry Pi автономную голосовую колонку с камерой, которая будет работать и распознавать всё, что не только слышит, но и видит перед собой, даже при отсутствии Интернета! Без облаков, без API-ключей. С локально запущенными моделями ИИ, связка Ollama+Gemma3:1b+Moondream+OpenWakeWord+Whisper.cpp+Silero TTS

А также расскажу, как подключить обе эти колонки к Home Assistant для управления устройствами умного дома.

Содержание статьи:

Умная колонка с ESP32S3 и XiaoZhi
Сборка своей прошивки
Интеграция с Home Assistant
Видео работы готового устройства
Что можно улучшить

Умная колонка на Raspberry Pi и Ollama
Интеграция с Home Assistant
Видео работы готовой колонки
Что можно улучшить
Если не хватает производительности
Ссылки по теме

Умная колонка с ESP32S3 и XiaoZhi

XiaoZhi - это платформа, которая позволяет использовать большие языковые модели в собственных разработках. Благодаря этой платформе можно использовать модели ИИ в микроконтроллерах esp32 (и не только), создавая чатботы, роботы и тому подобные устройства. При этом это полностью бесплатно, не нужно платить за использование токенов! Нужен лишь номер телефона либо учётная запись Google для регистрации.

Поддерживаются модели: Xiaozhi Lite и DeepSeek Quantized (без ограничений), а также поддерживается модель для распознавания изображений (с лимитом по времени использования).
После привязки к своей учётной записи на Github становятся также доступны модели Qwen 3, DeepSeek Full, Doubao, а также ограниченные по времени использования GLM 4.7 и Kimi K2.

Самое главное - поддерживается русский язык, причём даже есть варианты выбора спикера - "женщина", "брутальный мужик", "ребёнок", "сумасшедшая королева", "амбициозная женщина", и звучат все эти голоса просто шикарно =)

Для реализации при помощи XiaoZhi голосовых ассистентов на микроконтроллерах предназначен open-source проект XiaoZhi-ESP32. Поддерживается offline-распознавание слова пробуждения (wake word) при помощи ESP-SR. Можно подключить OLED / LCD - экраны для отображения анимированных эмоций и озвучиваемого ответа языковой модели. Реализовано распознавание говорящего по голосу (3D-Speaker).

Благодаря поддержке MCP (Model Context Protocol) можно подключать свои самодельные устройства на esp32 к Home Assistant и управлять устройствами умного дома. Чем мы с вами в этой статье и воспользуемся. Также можно подключить к esp32 свои исполнительные устройства - реле, сервоприводы и т.д., и датчики, и управлять ими голосом через XiaoZhi.

Помимо общения и управления умными устройствами, можно просто попросить модель включить музыку - в общем, всё, как и в заводских умных колонках. :)

Есть уже готовые прошивки как для работы через Wi-Fi, так и через мобильную связь, используя модуль 4G ML307.

Вот что нам понадобится для сборки нашей умной колонки:

  • Плата с микроконтроллером ESP32-S3 N16R8 (16Mb Flash, 8Mb Psram), 44 контакта

  • Всенаправленный MEMS-микрофон INMP441

  • i2s усилитель MAX98357A

  • Динамик 4/8 Ом 2-3Вт

  • Экран 1.54" 240х240 на контроллере ST7789, 8 контактов

  • Беспаечная макетная плата (например, BB-801-2S-3P) + набор перемычек

  • usb type-c кабель для питания/программирования

Собираем по схеме на сайте:

Далее скачиваем прошивку (файл v2.0.2_bread-compact-wifi-lcd-240x240.zip) и софт для прошивки - Flash Download Tool. Всё распаковываем, после чего запускаем flash_download_tool_3.9.9_R2.exe и выбираем в появившемся окне ESP32-S3, WorkMode Develop и LoadMode UART:

4ee471ff6abf3c0733bbf589a4eb3d45.jpg

Нажимаем "ОК", и в новом окне указываем путь к прошивке - файлу v2.0.2_bread-compact-wifi-lcd-240x240.bin, ставим галку напротив пути, указываем адрес 0х0, скорость порта 230400, номер виртуального ком-порта, к которому подключена плата (можно посмотреть в диспетчере устройств), и нажимаем кнопку "START":

86eee201868f3cda11c1020ed6a6cbc8.jpg

После появления надписи "FINISH" нажимаем на плате кнопку RST - на экране устройства должно появится название Wi-Fi-сети и IP-адрес для подключения:

9c86c45ca9b0e0491bc9abf4764b2f6e.jpg

Со своего телефона или компьютера подключаемся по Wi-Fi к указанной сети, после чего с браузера открываем страницу по адресу http://192.168.4.1, где выбираем из списка Wi-Fi-сеть, через которую устройство может выходить в Интернет, вбиваем пароль и нажимаем "Connect":

38a6d32ebc5f7a5724b350ca5608a185.jpg

Если устройство самостоятельно не перезагрузилось - принудительно нажимаем кнопку RST, после чего плата подключиться к Wi-Fi и отобразит на экране данные для подключения к платформе XiaoZhi:

a2b8f290c63683c682b1e9e6d648e383.jpg

Через браузер заходим на xiaozhi.me, нажимаем кнопку "Console", и регистрируемся, указав номер телефона либо авторизуясь через Google.

После регистрации нажимаем на сайте кнопку "+ Add Device" и во всплывающем окне указываем шестизначный код с экрана нашего устройства:

8abbd2eb73e0372d09ec14b9f2eb8abe.jpg

После нажатия на "Confirm" отобразиться карточка устройства. Нажимаем в ней кнопку "Configure Role" и выбираем роль ассистента (например, учитель по английскому), его имя, язык, спикера:

ea2808a0bae78576780997f74f1fb42f.jpg

После нажатия на "Save" нас попросят перезагрузить вручную кнопкой RST устройство, чтобы настройки вступили в силу. После этого наша умная колонка начнёт наконец работать по назначению. :)

Но есть нюанс - по-умолчанию голосовая активация не работает. Чтобы начать общение с колонкой, каждый раз нужно нажимать кнопку "BOOT" на плате устройства. Если мы хотим, чтобы устройство пробуждалось по ключевому слову, без нажатия на кнопку, то нам нужно перейти на страницу Manage Devices:

aa0c210316aa0440128a2700c21e8c46.jpg

Далее выбираем Theme Settings: Customize, жмём Next, и попадаем в раздел Theme Design:

847fb806f1c3b8662d054d8ccc7c3b85.jpg

Здесь мы можем как выбрать уже предобученную модель (Preset Wake Word), так и задать своё собственное слово пробуждения (Custom Wake Word). В данном примере я выбрал Sophia модели WakeNet9.

Далее выбираем Next -> Generate assets.bin, и начнётся загрузка новой прошивки в память устройства. После перезагрузки больше не нужно нажимать на кнопку для начала общения - достаточно произнести вслух ключевое слово "Софья", и устройство сразу проснётся.

Сборка своей прошивки

Готовая прошивка - это, конечно, хорошо, но как насчёт того, чтобы собрать свою?

Для этого нам нужно скачать среду разработки ESP-IDF отсюда: https://dl.espressif.com/dl/esp-idf/

выбираем ESP-IDF v.5.5.3 Offline Installer (там есть 5.3 и другие - они нам не подойдут) и устанавливаем.

Теперь нам нужно скачать репозиторий xiaozhi esp32 с исходниками прошивки нашей умной колонки: https://github.com/78/xiaozhi-esp32

Распаковываем его в уже существующую папку с примерами ESP-IDF: Espressif\frameworks\esp-idf-v5.5.3\examples\

Далее на рабочем столе выбираем "ESP-IDF 5.5 CMD" и в открывшемся окне переходим в паку Espressif\frameworks\esp-idf-v5.5.3\examples\xiaozhi-esp32-main\:

2cecdf621ae09c8408dda4266e514a7f.jpg

После этого нам нужно выбрать цель для сборки, указав наш микроконтроллер esp32s3. Делается это следующей командой в терминале:

idf.py set-target esp32s3

После того, как всё будет готово, вводим следующую команду:

idf.py menuconfig

Попадаем в меню конфигурации для сборки нашей прошивки:

d804ac59e64a0e7f2ff0ae69ef649622.jpg

Переходим в раздел Xiaozhi Assistant и выбираем:

Default Language: Russian

Board Type: Bread Compact WiFi + LCD

LCD Type: ST7789 240x240

Wake Word Implementation Type: Wakenet model with AFE

f671dcf5fa232ab566836e19a191876d.jpg

Далее возвращаемся в главное меню и переходим в раздел ESP Speech Recognition. Выбираем:

Load Multiple Wake Words (WakeNet9): Sophia (wm9_sophia_tts)

English Speech Commands Model: english recognition (mn5q8_en)

c9f3e291ee869f66ae2110e17b7d15c3.jpg

Благодаря этому наша колонка будет откликаться на слова "Софья / София".

Для сохранения настроек нажимаем клавишу "S", далее выходим по нажатию "ESC".

Для сборки прошивки вводим:

idf.py build

Последний шаг - загрузка прошивки в нашу колонку:

idf.py -p COM8 flash

Поменяйте "COM8" на номер ком-порта своей платы esp32. После загрузки прошивки устройство сразу будет готово к работе.

Кстати, есть расширение ESP для редактора VS Code, поэтому можно работать не из консоли, а из редактора. Про установку и настройку рассказано в этом видео: https://www.youtube.com/watch?v=XEmlCJrlPBA

Если хотите проект под эту плату отредактировать под свои нужды - файлы находятся в Espressif\frameworks\esp-idf-v5.5.3\examples\xiaozhi-esp32-main\main\boards\bread-compact-esp32-lcd

Файл локализации на русском - Espressif\frameworks\esp-idf-v5.5.3\examples\xiaozhi-esp32-main\main\assets\locales\ru-RU\language.json

Интеграция с Home Assistant

Наша умная колонка отлично работает, но ей кое-чего не хватает. Она не умеет то, что умеют колонки вроде Яндекс.Станции - управлять устройствами умного дома. Для решения этой проблемы нашу колонку можно подключить к серверу умного дома Home Assistant через MCP (Model Context Protocol). Работать это будет по следующей схеме:

44c47cc53afe205541f030b5df14723b.jpg

Чтобы это всё работало, нужно установить и настроить Xiaozhi MCP Integration for Home Assistant, как указано в документации: https://github.com/mac8005/xiaozhi-mcp-ha

После установки задаем русские имена устройствам Home Assistant (например, "розетка"), и можно управлять голосовыми командами через нашу колонку (например, "включи розетку в спальне").

Видео работы готового устройства

Что можно улучшить

Существуют версии модулей ESP32S3 N16R8 с камерой:

192d95f7a3d69a6d449c5b78f2899a8b.jpg

Для них уже есть готовые прошивки Xiaozhi, которые вместе с инструкцией по сборке находятся здесь: https://my.feishu.cn/docx/GoGBdLVUooHARPxyTLhc9AjdnFh

У меня не было плат с камерой, поэтому в этой статье описал колонку с платой без камеры.

Умная колонка на Raspberry Pi и Ollama

А теперь давайте сделаем полностью автономную умную голосовую колонку с ИИ, которая будет работать даже без Интернета! И более того - даже без внешнего питания, при пропадании электричества =)

Зачем делать свою колонку, когда можно пойти в магазин и купить готовую? В отличии от готовых устройств, тут локальное распознавание и синтез речи, локальный ИИ, работающий даже без Интернет.

Плюсы самодельной колонки по сравнению с теми решениями, которые предлагает рынок:

  • финансовый вопрос использования - другие колонки работают по подписке. А наша колонка будет работать без подписок, без облаков и без API-ключей.

  • вопрос конфиденциальности и безопасности данных - не всегда хочется и приемлемо передавать данные третьей стороне

  • без интернета не работают, наша - легко

  • гибкость: что вам дали - тем и пользуетесь, нет возможности кастомизации под себя

Вот что нам нужно для сборки умной колонки:

  • Raspberry Pi 5 4-16Гб

  • USB-микрофон

  • I2S-усилитель MAX98357A

  • X1002 NVME HAT

  • NVME M.2 диск

  • 5" LCD-экран с DSI или HDMI-интерфейсом

  • Raspberry Pi камера

Собираем по схеме:

026cf46b5b0600dffe0545a03c33bc77.jpg

Почему бы не использовать гораздо более дешёвую SD-карту? Тут дело не только в том, что SSD-диски ощутимо быстрее по скорости, но в основном в том, что при активном использовании ИИ SD-карты быстро выходят из строя, месяц-два - и карту на выброс. Так что определённо стоит раскошелиться. :)

Подключаем SSD-диск через USB NVMe-переходник к компьютеру, запускаем Raspberry Pi Imager, выбираем Raspberry Pi OS (64-bit), записываем на диск.

После загрузки Raspberry Pi 5 с диска у нас скорость чтения с него будет около 400Мб/с, проверить это можно командой:

sudo hdparm -t --direct /dev/nvme0n1

Чтобы разогнать диск с Gen.2 до Gen.3, открываем файл /boot/firmware/config.txt и добавляем в него:

[all] dtparam=nvme dtparam=pciex1_gen=3

После перезагрузки проверяем скорость:

sudo hdparm -t --direct /dev/nvme0n1

Увидим, что она поднялась в два раза - около 800Мб/с :) Важно, чтобы диск получал дополнительное питание - для этого на переходнике X1002 предназначены дополнительные контакты pogo pin, подключающиеся к пинам +5V и GND на Raspberry Pi.

Устройство собрано, теперь пора установить приложение для нашей умной колонки. Оно будет работать по следующей схеме:

c6d2cd34331ebfff0129c6ce60cce8b9.jpg

Давайте разберём составляющие более подробно.

Для пробуждения колонки и определения необходимости записи речи используется OpenWakeWord. Доступны уже обученные модели (одну из таких, "Алекса", мы будем использовать в нашей умной колонке), также можно обучить свои модели, и для этого есть два пути:

  • Google Colab - наиболее простой и быстрый вариант, обучение занимает около часа

  • Notebook - более сложный и продвинутый, позволяет создавать высококачественные модели

Для преобразования речи в текст выбран Whisper.cpp. Используется модель ggml-base.bin, которая работает с русским языком.

Для обратного преобразования, из текста ответа языковой модели в речь, выбран Silero TTS. Наиболее распространён Piper TTS, который просто летает на Raspberry Pi, и у которого просто шикарно звучащие английские модели, но вот модели на русском совсем не понравились - звучат уныло. Я начал искал варианты, которые хорошо звучат на русском, и в итоге остановился на Silero TTS - работает помедленнее, плюс имеет ряд проблем (например, не проговаривает числа, для этого их приходится переводить предварительно в текст), зато модели звучат просто шикарно. :) Я использовал модель v5_ru и спикера baya для озвучки на русском и модель v3_en со спикером en_0 для озвучки на английском.

Отмечу, что тут поддерживается SSML - при помощи расстановки тёгов в тексте можно контролировать паузы и произношение (например, говорить быстро/медленно, тоном выше/ниже, делать паузы в нужном месте в N секунд).

Также существует Silero-VAD - модель для обнаружения голосовой активности (определяет, где в аудиозаписи речь, а где - тишина, когда пользователь начал либо закончил говорить).

В качестве платформы (роутера) для локального запуска моделей искусственного интеллекта выбрана широко распространённая Ollama. Из альтернатив существуют KoboldCpp и LM Studio.

В качестве текстовой модели ИИ выбрана модель gemma3:1b - из всех моделей, доступных для загрузки на Ollama, она оказалась самой быстрой на Raspberry Pi. Плюс поддерживает русский язык.

Для распознавания изображения со встроенной камеры выбрана модель Moondream. Причина - не удалось найти другую модель, которая распознавала бы изображение на Raspberry Pi за приемлемое время. На версии с 8Гб памяти она выдаёт ответ за минуту, другие модели - существенно дольше. Но есть проблема - Moondream не поддерживает русский язык. Для решения этой проблемы пришлось создать "бутерброд" - gemma3:1b вначале переводит запрос пользователя с русский на английский, далее получаем картинку с камеры при помощи rpicam-still, и вместе с запросом на английском передаём на вход модели Moondream. Полученный от неё на английском ответ также при помощи gemma3:1b переводим обратно на русский и при помощи Silero TTS озвучиваем пользователю. Получается всё равно гораздо быстрее в плане производительности, чем использовать другую модель зрения, поддерживающую нативно русский.

Собственно говоря, умная колонка не является полностью автономной - если модель не знает ответа, она берёт данные извне, используя Api поисковика Duck Duck Go (через библиотеку ddgs). Но если отключить такую возможность, колонка станет полностью автономной. :)

Установка

После сборки схемы умной колонки нам нужно установить весь необходимый софт. Исходный проект автором brenpoly выложен здесь: https://github.com/brenpoly/be-more-agent

Но он не поддерживает русский язык, работу с умным домом и некоторые другие вещи, поэтому я сделал форк и выложил в свой репозиторий: https://github.com/tzirulnicov/be-more-agent

Для начала, обновляем пакеты и ставим git:

sudo apt update && sudo apt upgrade -y

Устанавливаем необходимые библиотеки и приложения:

sudo apt install -y python3-tk libasound2-dev libportaudio2 libatlas-base-dev cmake build-essential espeak-ng git rpicam-apps

Далее, устанавливаем Ollama:

curl -fsSL https://ollama.com/install.sh| sh

Когда установка будет завершена, загружаем модели:

ollama pull gemma3:1b ollama pull moondream

Теперь нужно загрузить к себе репозиторий проекта, создать виртуальную среду и установить необходимые пакеты:

git clone https://github.com/tzirulnicov/be-more-agent.git cd be-more-agent python3 -m venv venv source venv/bin/activate pip install --upgrade pip pip install -r requirements.txt

Установить Whisper.cpp

cd be-more-agent git clone https://github.com/ggerganov/whisper.cpp.git cd whisper.cpp sh ./models/download-ggml-model.sh base cmake -B build cmake --build build --config Release

Чтобы заработал динамик, подключенный к Raspberry Pi через усилитель MAX98357A, нужно выполнить команды, описанные здесь: https://learn.adafruit.com/adafruit-max98357-i2s-class-d-mono-amp?view=all

Тут появится проблема - динамик работает, а вот микрофон - нет, выводится ошибка "The dmix plugin supports only playback stream". Решение - использовать asym, для этого возьмите файл be-more-agent/asound.conf, и замените им уже существующий /etc/asound.conf и запустите sudo /etc/init.d/alsa-utils restart.

Проверить работу микрофона можно командой arecord -d 5 test.wav

Работу динамика - aplay test.wav

Если будет ошибка, что устройство не найдено - вызвать aplay / arecord c параметром --list-devices, найти своё устройство записи/воспроизведения, и внести соответствующие настройки в /etc/asound.conf

Запускаем колонку:

source venv/bin/activate python agent.py

Интеграция с Home Assistant

Управлять голосом через умную колонку устройствами умного дома через сервер Home Assistant мы будем, используя REST API и библиотеку home-assistant-rest-driver

ebe1f59cd5123ab9a7096febe45b8cb0.jpg

Для этого нужно получить токен доступа, для этого на странице Home Assistant переходим в свой профиль, далее вкладка "Безопасность", в самом низу блок "Долгосрочные токены доступа". Создаём токен и прописываем настройки в config.yaml на нашей колонке:

home_assistant: enable: 1 url: http://[ip-адрес сервера home assistant]:8123 token: [долгосрочный токен доступа] device_id: [id устройства, которым хотим управлять голосом]

Видео работы готовой колонки

Можно распечатать корпус для этой колонки, вот конечное изделие (файлы для печати - в be-more-agent/stl):

47af72eb6e1c8e938d80d3093fdc1aa1.jpg

Чтобы устройство было полностью законченным в плане функционала, реализуем работу от аккумуляторов при пропадании питания, а также возможность играть в видеоигры при помощи кнопок на корпусе. Для этого нужно добавить компоненты:

  • WaveShare UPS HAT 18650

  • Аккумуляторы 18650 2шт высокотоковые (например, Molicel 18650-P30B)

  • Arduino Nano

  • тактовые кнопки 7шт

80244264bda794e41f8cb141516171f3.jpg

Гербер-файлы для печати платы кнопок расположены в be-more-agent/pcb репозитория.

Если нет необходимости, чтобы кнопки работали, то можно распечатать заглушку - be-more-agent/stl/dummy-pcb.stl

Для работы кнопок можно использовать Arduino Nano, которая будет эмулировать USB-клавиатуру. Для этого предназначена библиотека Алекса Гайвера EasyHID - помимо примеров кода там же можно посмотреть схему подключения к USB (используется обвязка из стабилитрона, диодов и резисторов).

Что можно улучшить

От используемого микрофона за 100 рублей ждать хорошей работы не приходится, фразы приходится произносить вблизи микрофона. Как вариант - использовать микрофоны подороже:

c9941052640316d5cddc4e5686715684.jpg
  • конференц usb-микрофон - наиболее бюджетный вариант из представленных (около 500р), обеспечивает дальность порядка трёх метров

  • ReSpeaker 2-mic HAT - два микрофона, чуть дороже предыдущего варианта, требует порой танцев с бубном, чтобы заработало

  • Respeaker XMOS AI-powered 4-mic array - сразу определяется в системе, предназначен как раз для общения с ИИ, хорошее качество звука и дальность, но цена кусается - в 10 раз дороже предыдущего варианта

  • SiPeed 6+1 mic array - массив из 7 mems-микрофонов, вместе с платой с usb аналогичен по цене с предыдущим вариантом

Если не хватает производительности

1a601be3697874a7ae388260a5e72992.jpg

Локальные модели ИИ требуют больших вычислительных ресурсов, для решения этой проблемы выпускаются платы расширения - HAT - для Raspberry PI.

В продаже есть платы расширения на базе ускорителя Hailo-8 производительностью 13 и 26 TOPS - сразу оговорюсь, что они НЕ подходят для генеративных моделей ИИ, т.к. предназначены для ускорения распознавания объектов на изображении.

Для наших нужд подходит плата расширения с ускорителем Hailo-10H - Raspberry Pi AI HAT 2+, имеющая на борту 8Гб памяти. Поддерживает запуск как больших языковых моделей (LLM), так и визуально-языковых (VLM). На данный момент поддерживаются DeepSeek-R1-Distill, Qwen2.5-Coder, Qwen2.5-Instruct, Qwen2 и Llama3.2 до 1,5 млрд параметров, но проект активно развивается.

Ещё один вариант ускорения - подключить к Raspberry Pi внешнюю видеокарту благодаря поддержки PCIe Gen 3 x1, используя плату-переходник M.2 Key E to PCIe x16. На продакшен такое - не вариант, но для экспериментов - почему бы и нет.

Если хочется большей производительности, можно использовать одноплатные компьютеры серии Jetson - например, линеек Nano B01, Orig Nano, Orin NX Super, AGX Orin, производительностью до 275 TOPS, которые как раз предназначены для запуска и использования моделей ИИ:

c078ed49bf2835667afbe5aff147070e.jpg

Вместо послесловия

В этой статье мы познакомились с платформой ИИ XiaoZhi, open-source проектом xiaozhi-esp32, запустили оффлайн языковые модели с использованием Ollama и собрали две колонки - на микроконтроллере esp32 с XiaoZhi и полностью (при условии отключения поисковика Duck Duck Go) автономную колонку на Raspberry Pi, работающую не только без Интернета, но даже и без внешнего питания. Рассмотрели возможность подключения устройств умного дома с использованием сервера Home Assistant.

Ссылки по теме:

Сборка умной колонки на ESP32: https://my.feishu.cn/wiki/Zq62wST38iuNxZkwg9JcjkSSnSd

Xiaozhi-esp32: https://github.com/78/xiaozhi-esp32

Руководство по использованию XiaoZhi на русском: https://xiaozhi.dev/ru/docs/usage/

Xiaozhi MCP Integration for Home Assistant: https://github.com/mac8005/xiaozhi-mcp-ha

Репозиторий умной колонки на Raspberry Pi: https://github.com/tzirulnicov/be-more-agent/

Источник

Возможности рынка
Логотип Ucan fix life in1day
Ucan fix life in1day Курс (1)
$0.0004382
$0.0004382$0.0004382
-2.81%
USD
График цены Ucan fix life in1day (1) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Пожертвование Bitwise Bitcoin ETF: Трансформационный подарок в размере 233 000 $ расширяет возможности разработчиков открытого исходного кода

Пожертвование Bitwise Bitcoin ETF: Трансформационный подарок в размере 233 000 $ расширяет возможности разработчиков открытого исходного кода

BitcoinWorld Пожертвование Bitwise Bitcoin ETF: Трансформационный подарок в $233 000 расширяет возможности разработчиков с открытым исходным кодом В знаковом шаге для криптовалютной филантропии, актив
Поделиться
bitcoinworld2026/03/05 06:15
ИИ-агенты, а не люди, станут следующими крупными покупателями криптовалют ⋆ ZyCrypto

ИИ-агенты, а не люди, станут следующими крупными покупателями криптовалют ⋆ ZyCrypto

Статья «ИИ-агенты, а не люди, станут следующими крупными покупателями криптовалют ⋆ ZyCrypto» появилась на BitcoinEthereumNews.com. Реклама &nbsp &nbsp CEO Coinbase
Поделиться
BitcoinEthereumNews2026/03/05 06:28
«Смехотворно»: демократ разозлил собственную партию, намекнув на помилование осуждённого сторонника MAGA

«Смехотворно»: демократ разозлил собственную партию, намекнув на помилование осуждённого сторонника MAGA

Губернатор Джаред Полис (демократ, Колорадо) продолжает подавать сигналы о том, что он выступает за предоставление как минимум частичного помилования заключенной бывшей клерку округа Меса Тине Питерс, чтобы сократить
Поделиться
Rawstory2026/03/05 06:15