TG Telegram Group & Channel
BanderaMedia🇺🇦 | United States America (US)
Create: Update:

💻 Ілон Маск та понад 1000 експертів підписали відкритий лист про небезпеку просунутих ШІ – пропонується мораторій на розробку та регулювання

Ілон Маск разом з групою експертів зі штучного інтелекту та керівників галузі у відкритому листі закликали до шестимісячної паузи у розробках систем штучного інтелекту, потужніших, ніж нещодавно запущений OpenAI GPT-4. Автори листа посилаються на потенційні ризики для людства.

У листі, випущеному некомерційним «Інститутом майбутнього життя» (Future of Life Institute) та підписаному більш ніж 1000 осіб, включаючи Ілона Маска, міститься заклик призупинити розробку просунутого ШІ доти, доки не будуть створені, впроваджені та перевірені незалежними експертами загальні протоколи для таких проєктів. Сем Альтман, виконавчий директор OpenAI, не підписав листа.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики керованими», — йдеться у листі.

Від себе можу додати, що все це досить дивно виглядає. Є висказування Маска, де він планував проінвестувати в OpenAI (розробники chat GPT) але від цього відмовились, що образило Ілона. До написання цього листа долучалися топ-менеджери AlpaBet (материнська компанія Google) відділу ШІ, що може свідчити про проблеми розробки аналогічних продуктів тощо. Хочуть наздогнати конкуретнів?)

@Banderamedia

💻 Ілон Маск та понад 1000 експертів підписали відкритий лист про небезпеку просунутих ШІ – пропонується мораторій на розробку та регулювання

Ілон Маск разом з групою експертів зі штучного інтелекту та керівників галузі у відкритому листі закликали до шестимісячної паузи у розробках систем штучного інтелекту, потужніших, ніж нещодавно запущений OpenAI GPT-4. Автори листа посилаються на потенційні ризики для людства.

У листі, випущеному некомерційним «Інститутом майбутнього життя» (Future of Life Institute) та підписаному більш ніж 1000 осіб, включаючи Ілона Маска, міститься заклик призупинити розробку просунутого ШІ доти, доки не будуть створені, впроваджені та перевірені незалежними експертами загальні протоколи для таких проєктів. Сем Альтман, виконавчий директор OpenAI, не підписав листа.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики керованими», — йдеться у листі.

Від себе можу додати, що все це досить дивно виглядає. Є висказування Маска, де він планував проінвестувати в OpenAI (розробники chat GPT) але від цього відмовились, що образило Ілона. До написання цього листа долучалися топ-менеджери AlpaBet (материнська компанія Google) відділу ШІ, що може свідчити про проблеми розробки аналогічних продуктів тощо. Хочуть наздогнати конкуретнів?)

@Banderamedia
Please open Telegram to view this post
VIEW IN TELEGRAM


>>Click here to continue<<

BanderaMedia🇺🇦






Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)