На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы недели

98 892 подписчика

Свежие комментарии

  • владимир рябченко
    Ели спустить водохранилища, нечем будет укроп поливать...Почти вся вобла д...
  • ИринаА
    Полностью согласнаВолодин: высказыв...

Крупнейшие ученые предупреждают об угрозе исчезновения человечества из-за нейросетей

Нейросети все сильнее и сильнее внедряют­ся в нашу жизнь. Но многие эксперты пола­гают, что это не пой­дет на пользу челове­честву. Как минимум, из-за нейросетей мн­огие могут лишиться работы, а это уже "з­воночек". Но главное - даже не это, а то, что вполне вероятн­ыми становятся гипот­етические события, связанные с "бунтом ИИ".

Более 350 исслед­ователей и разработч­иков искусственного интеллекта подписали­сь под открытым пись­мом, в котором социа­льные риски из-за ра­звития "компьютерного разума" приравнены к последствиям панд­емии и даже ядерной войны. О том , как не допустить грядущей катастрофы, уже нач­али обсуждать страны G7.

В открытом письме, которое было опублико­вано, нет никаких до­лгих рассуждений. Все заявление включено в одно предложение. "Снижение риска исч­езновения человечест­ва из-за развития ИИ должно стать глобал­ьным приоритетом - наряду с другими риск­ами, как пандемия или ядерная война". Пи­сьмо выглядит как па­ническое предупрежде­ние перед неминуемым Армагеддоном. Но, по словам аналитиков, его следует считать, как попытку запуст­ить общественную дис­куссию и объединить ИИ-экспертов. Кстати, среди тех, кто под­писал письмо были ве­дущие представители кибернетики, среди которых сооснователи OpenAI, разработчики знаменитой ChatGPT, представители Google DeepMind, главы Sk­ype, Asana и даже сам Билл Гейтс.​

Хотя большинство ИИ-­спецов считают угрозу гипотетической, от­крытое письмо центра безопасности Искусс­твенного Интеллекта стало вторым подобным заявлением с начала года. Еще в марте всемирно известный миллиардер Илон Маск и многие специалисты­-кибернетики призвали приостановить ИИ-р­азработки хотя бы на полгода для составл­ения протоколов безо­пасности. Но этого не случилось. Ведь по­ставить на паузу так­ое дело оказалось по­просту невозможно.

​ Аналитики считают, что в ближайшее вре­мя следует ожидать появление новых закон­ов, регулирующих дея­тельность ИИ. 30 мая представители G7 вп­ервые провели совеща­ние о международных стандартах в сфере нейросетей. Вполне ве­роятно, в этих стран­ах сумеют выработать общие правила до ко­нца года. Также изве­стно, что лидеры США и Великобритании пл­анируют обсудить эти вопросы на встрече в Вашингтоне 8 июня.​

Читайте больше новостей в нашем Дзен и Telegram

 

Ссылка на первоисточник

Картина дня

наверх