TG Telegram Group Link
Channel: Futuris
Back to Bottom
This media is not supported in your browser
VIEW IN TELEGRAM
Lol, тут запилили настоящую арену для LLM, где модели могут сразиться в Street Fighter 3 (и не только, есть даже первый мортал комбат🔥) и выяснить, кто из них король ринга 🥊

Интересно будет посмотреть на битву титанов GPT-5 и Claude 3 например 🌚

Можно загружать локальные модельки или через api
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft и Quantinuum добились прорыва в квантовых вычислениях, демонстрируя логические кубиты с рекордно низким уровнем ошибок — в 800 раз меньше, чем у физических кубитов. Этот успех открывает путь к разработке гибридных суперкомпьютеров нового поколения, обещая значительные прорывы в научных исследованиях и инновациях. В ближайшее время компании планируют предоставить доступ к этим технологиям в рамках приватного предварительного просмотра для пользователей Azure Quantum Elements, заложив тем самым основу для будущего научного и коммерческого преимущества в многочисленных отраслях.

Интересно, увидим ли мы когда нибудь квантовые LLM🌚
Futuris
Microsoft и Quantinuum добились прорыва в квантовых вычислениях, демонстрируя логические кубиты с рекордно низким уровнем ошибок — в 800 раз меньше, чем у физических кубитов. Этот успех открывает путь к разработке гибридных суперкомпьютеров нового поколения…
Фотоны в массы💫

Компания Lightmatter представила инновационный подход к построению суперкомпьютеров для искусственного интеллекта, используя световые соединения (фотоны) вместо традиционных электрических. Эта технология, названная "Passage", позволяет чипам напрямую обмениваться данными через оптические интерконнекты, что значительно увеличивает скорость передачи данных и сокращает задержки, связанные с преобразованием сигналов. Система Passage способна подключать сотни тысяч или даже миллионы GPU, что существенно ускорит процессы обучения ИИ. В ходе презентации на мероприятии венчурной компании Sequoia, генеральный директор Lightmatter Ник Харрис заявил, что технология будет готова к 2026 году и сможет обеспечить работу свыше миллиона GPU в параллельном режиме (к слову GPT-4 использует где-то 20тыс GPU). Это открывает перспективы для создания следующих поколений ИИ и к достижению общего искусственного интеллекта (AGI)🤖
Forwarded from Сиолошная
Вышла свежая версия GPT-4-Turbo (суффикс 04-09). Я бы про это не писал, если бы в Twitter сразу 3 сотрудника OpenAI не репостнули это со словами «big improvement». Один даже указал, что улучшения особенно заметны в математике.

Также эту модель должны принести в ChatGPT (веб-сайт с подпиской за $20, не API).

Ждём на LMSYS Arena, оценим, что это за «улучшения». Тайминг выбран интересный — вот только сегодня рейтинг обновился, и оказалось, что модель CMD-R+ от Cohere на 100B+ параметров обогнала GPT-4 (исходные версии весны 2023-го). Claude 3 Opus всё еще сидит на первом месте.

Ну что, началось..? Sama нажал большую красную кнопку?
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Ничего необычного, просто запустил модель по уровню прошлых версий GPT4 у себя на ноуте ☕️

Модель Command R+ размером 104B параметров; эта модель сейчас на 6 месте среди всех языковых моделей в мире и она в открытом доступе (с некоммерческой лицензией, правда)

Gguf версию качал тут

Подробнее о том как ее запустить в моем закрытом 💎 канале:
Лол, какой VIP канал, мир локальных моделей пока недружелюбный настолько насколько возможно, опции всего две: открываете llama.cpp на github и следуете инструкциями там, или просто ждете еще пару недель пока все популярные back-end аппы подключат ее поддержку (рекомендованный вариант)
Please open Telegram to view this post
VIEW IN TELEGRAM
Новая музыкальная LLM Udio теперь доступна всем

В месяц бесплатно можно нагенерить 1200 аудиофайлов 🔊 (но длительность не более 30 сек)
В новом исследовании от Google представлен эффективный метод масштабирования трансформеров для обработки бесконечно длинных входных данных с ограниченным объемом памяти и вычислительными ресурсами. Ключевым элементом метода является новая техника внимания, названная Infini-attention, которая интегрирует сжимающую память в стандартный механизм внимания. Это позволяет небольшим моделям работать с очень длинными текстами, например, с длиной в 1 миллион символов (не токенов). Модели на 1 и 8 миллиардов параметров показали превосходство над базовыми моделями на задачах с длинным контекстом.

Ждём апдейт Gemini до бесконечных окон контекста хотя мне 1 млн уже более чем достаточно🌚
Таки моделька GPT-4 Turbo обновилась сегодня до новой версии и опять заняла первое место на чат-бот арене

Новая версия обучена на данных до декабря 2023 года и обещает улучшения в точности, сокращение излишеств в текстах и более естественный язык. Теперь ChatGPT может также использовать информацию из интернета для ответов на актуальные вопросы. (хотя вроде и так мог, но по конкретному запросу, а теперь видимо сам при желании сёрфить будет🌚)
Media is too big
VIEW IN TELEGRAM
Ну года 2-3 назад, чтобы такое сделать понадобилось бы намноого больше времени и денег, чем сейчас с платной подпиской на Midjourney и Runway и музыкой в Suno или Udio 😎🤟 и это ещё Sora в общий доступ не дали🌚
Интересное будущее ждёт не только сферу высоких технологий на Земле, тут команда исследователей из NASA предложила миссию, которая больше звучит как начало фантастического фильма💫

Миссия направлена на изучение неизведанных аспектов физических законов в нашей Солнечной системе Ключевым элементом миссии является использование космических аппаратов, расположенных в форме тетраэдра. Используя тетраэдрическую формацию и интерферометры, космические аппараты смогут сравнивать и измерять расстояния и скорости между собой с очень высокой точностью. Это позволит им обнаружить небольшие отклонения от того, что предсказывает общая теория относительности, и, возможно, найти новую физику, которая может объяснить эти отклонения.

Кроме того, эта миссия сможет обнаруживать гравитационные волны - это небольшие колебания пространства и времени, которые возникают при движении массивных объектов, таких как черные дыры. Гравитационные волны еще не были обнаружены в микрогерцевом диапазоне, и эта миссия может стать первой, которая это сделает.

И наконец, эта миссия также может помочь исследовать возможное существование планеты 9 - гипотетической планеты, которая, как предполагается, находится в самой дальней части нашей Солнечной системы🌚

https://www.sciencealert.com/radical-nasa-study-says-this-spacecraft-formation-could-reveal-new-physics
Думаете в гонке LLM перерыв? не тут-то было

Компания Reka (основанная экспертами из DeepMind, Google Brain) анонсировала запуск LLM под названием Reka Core. Эта модель является мультиязычной и мультимодальной, что позволяет ей обрабатывать и анализировать текст, изображения, видео и аудио. Reka Core с контекстным окном 128к токенов сравнима по своим возможностям с GPT-4V, Claude-3 Opus и Gemini Ultra и превосходит их в задачах связанных с видео. Модель обучалась на массивных данных с использованием тысяч GPU и доступна для развертывания через API, на локальных серверах или непосредственно на устройствах. Важным аспектом сотрудничества Reka является партнерство с ведущими технологическими платформами и государственными организациями, такими как Snowflake, Oracle и AI Singapore.

Видео-преза модельки
Собственно playground Reka (контекстное окно 4к)

Конкуренция работает🌚
Futuris
В новом исследовании от Google представлен эффективный метод масштабирования трансформеров для обработки бесконечно длинных входных данных с ограниченным объемом памяти и вычислительными ресурсами. Ключевым элементом метода является новая техника внимания…
Вслед за Google компания Meta представила новый подход к предварительному обучению и использованию LLM, под названием Megalodon. Он позволяет эффективно работать с бесконечно длинными текстами. Раньше трансформеры сталкивались с проблемами при обработке длинных текстов, но Megalodon решает эту проблему. Подход использует несколько новых технических компонентов, чтобы улучшить свою производительность и стабильность. В сравнении с другой моделью, Llama2, Megalodon показал лучшие результаты при работе с большим количеством параметров и обучающих данных. Это значит, что Megalodon может обрабатывать длинные тексты быстрее и точнее, чем другие модели.

Code: https://github.com/XuezheMax/megalodon


Похоже, даже смелые предположения о темпе развития ИИ-технологий не успевают за реальностью, что нас ещё ждёт до конца года🌚
Boston Dynamics представили гуманоидного робота нового поколения
Новый Atlas спроектирован для реального мира и обладает улучшенной маневренностью и силой. Компания планирует тестирование с Hyundai на производственных площадках.

Основные моменты:

Завершение эры гидравлического Atlas: Boston Dynamics прекращает разработку гидравлического робота Atlas и представляет новую, полностью электрическую версию.

Тестирование с Hyundai: Hyundai не только инвестирует в проект, но и будет использовать нового Atlas для тестирования в автомобилестроении.

Улучшения в новом Atlas: Электрический Atlas обладает большей силой и маневренностью, чем предыдущие модели, и разрабатываются новые типы захватов для различных производственных задач.

Интеграция с цифровой трансформацией: Программа Orbit для управления роботами и данными уже доступна для модели Spot и будет расширена для новых моделей.

Развитие программного обеспечения: Роботы оснащены новыми инструментами ИИ и машинного обучения для адаптации к сложным условиям реального мира.

Atlas будет использоваться для решения сложных задач в промышленности, превышающих возможности человека🌚

Не терпится дождаться больше видосиков, а потом Atlas в каждый завод!🤖

https://bostondynamics.com/blog/electric-new-era-for-atlas/
Если какая нибудь страна не воплотит это в реальность, то я не знаю зачем ещё нужны нейросети🌚

Made in mj6
Meta AI представляет Llama 3 - новое поколение своих открытых больших языковых моделей

Новые модели Llama 3 с параметрами 8B и 70B демонстрируют значительное повышение производительности по сравнению с предыдущими моделями, включая улучшенные способности к рассуждению и кодированию. В ближайшие месяцы компания планирует представить новые возможности, увеличенное окно контекста (пока 8к токенов), дополнительные размеры моделей (400B, которая будет мощнее GPT-4 с 2T параметров) и повышенную производительность. Также чат-бот Meta AI, разработанный на базе Meta Llama 3, теперь доступен бесплатно в Facebook, Instagram, WhatsApp и Messenger.

Пообщаться с Meta AI на базе Llama 3 можно тут

Кажется, все уже начинают привыкать к тому как часто стали появляться новые модельки, ждём очередную отраслевую планку от OpenAI🌚
This media is not supported in your browser
VIEW IN TELEGRAM
Тут компания Groq (не Grok), которая разрабатывает свою технологию LPU, Language Processing Units вместо GPU для более эффективной работы с языковыми моделями, добавила на свой плейграунд новые модели LLaMA 3 иии... они выдают по 800 (8b) и 300 (70b) токенов в секунду (~600/200 слов в сек), для сравнения ChatGPT выдаёт 40 токенов/сек🌚

можете проверить сами как будет выглядеть общение с LLM в ближайшем будущем - буквально на лету🤯
AGI уже тут 🔥
🕶Умные очки Ray-Ban Meta теперь обладают мультимодальным ИИ, который позволяет обрабатывать несколько типов информации, таких как фото, аудио и текст. Эта функция стала доступна всем после нескольких месяцев бета-тестирования. Очки не только позволяют делать снимки и идентифицировать объекты, но и удобно использовать в качестве наушников. Несмотря на возможные ошибки ИИ при распознавании объектов, как например, с идентификацией моделей автомобилей, общий опыт использования оценивается положительно. Эти очки предлагают интересный опыт расширенной реальности, делая ежедневные задачи более удобными и интерактивными.

Понятно, что пока это первые версии, но думаю, тема умных очков очень перспективна, удобно когда при необходимости они могут и фото/видео сделать и объяснить и перевести и позвонить без необходимости постоянно тыкать в экран и отвлекаться на смартфон. А там ещё и распознавание эмоций собеседника и всякие риалтайм лайфхаки появятся, смотря как запромптить🌚

https://www.theverge.com/2024/4/23/24138090/ray-ban-meta-smart-glasses-ai-wearables
Давно не было опросов🤓 мне вот интересно, как часто вы пользуетесь генеративным ИИ? (неважно для себя или по работе)
Anonymous Poll
9%
Каждый час🤖
39%
Каждый день
25%
Несколько раз в неделю
21%
Пару раз использовал(а)
5%
Ещё не использовал(а)🫥
Ученые из Утрехтского университета в Нидерландах и Соганского университета в Южной Корее создали искусственный синапс, работающий на воде и соли. Это первое доказательство, что система, использующая те же средства, что и наш мозг, может обрабатывать сложную информацию. Исследование, опубликованное в журнале "Proceedings of the National Academy of Sciences", показывает, как ионы в растворе мигрируют под воздействием электрических импульсов, изменяя проводимость канала. Это открывает новые возможности для создания более энергоэффективных компьютеров, имитирующих функции человеческого мозга🧠

https://phys.org/news/2024-04-experimental-proof-brain-salt.html
HTML Embed Code:
2024/04/26 10:11:15
Back to Top