nickclick

nickclick

Борозжу просторы нэта, посещаю Пикабу, комментирую, пощу.
Пикабушник
Дата рождения: 18 мая
поставил 25108 плюсов и 856 минусов
отредактировал 5 постов
проголосовал за 5 редактирований
Награды:
10 лет на Пикабу
439К рейтинг 57 подписчиков 26 подписок 581 пост 149 в горячем

Ответ на пост «Запускаю кафе-шаверму в Питере в 48 лет (часть первая)»

Если до 5 июня 2023 года (включительно!) мы не откроемся, я весь день, в день открытия, буду продавать шаверму по 79 рублей, вместо 229 рублей строго в одни руки!

Уже очередь занимать?

Ответ на пост «Запускаю кафе-шаверму в Питере в 48 лет (часть первая)» Мечта, Бизнес, Санкт-Петербург, Шаурма, Длиннопост, Личный опыт, Малый бизнес, Сарказм, Ответ на пост
Ответ на пост «Запускаю кафе-шаверму в Питере в 48 лет (часть первая)» Мечта, Бизнес, Санкт-Петербург, Шаурма, Длиннопост, Личный опыт, Малый бизнес, Сарказм, Ответ на пост

Спасибо LinaPurr за ссылку на коммент.

UP: #comment_274326092

Показать полностью 2

Разработчики искусственного интеллекта предупредили о «рисках исчезновения человечества»

Страны «Большой семерки» уже готовят первые законы, которые помогут им контролировать развитие ИИ.

Больше 350 разработчиков и исследователей искусственного интеллекта подписались под открытым письмом, в котором социальные риски из-за развития ИИ приравнены к последствиям пандемии — и даже ядерной войны. Панические настроения (которые, правда, разделяют не все) вышли на самый высокий уровень: как именно регулировать сферу, чтобы не допустить катастрофы, уже начали обсуждать страны G7.

Разработчики искусственного интеллекта предупредили о «рисках исчезновения человечества» СМИ и пресса, Новости, Искусственный интеллект, Длиннопост

В открытом письме, которое опубликовал Центр безопасности искусственного интеллекта, нет долгих и абстрактных рассуждений. Все заявление — это одно предложение:

Снижение риска исчезновения человечества из-за [развития] искусственного интеллекта должно стать глобальным приоритетом — наряду с другими рисками, такими как пандемии и ядерная война.

Дэн Хендрикс, исполнительный директор центра, объяснил New York Times, что организация специально не стала «размывать главную мысль списком из 30 рекомендаций к действию». Впрочем, на сайте организации и так легко найти подробные отчеты об исследованиях, главная цель которых — как раз таки снизить социальные риски, возникающие из-за ИИ. Такие опасения, связанные с распространением дезинформации и потенциальной потерей миллионов рабочих мест, обсуждаются специалистами все чаще.

Открытое письмо, на первый взгляд, выглядит как паническое предупреждение перед неминуемым концом света. Но его стоит считать скорее попыткой запустить общественную дискуссию и объединить экспертов в сфере ИИ.

На текущий момент открытое письмо подписали более 350 человек, среди них сооснователи OpenAI, разработчика ChatGPT, Сэм Альтман и Илья Суцкевер (а также множество сотрудников этой компании), работники Google DeepMind и других ИИ-лабораторий, Билл Гейтс, руководители Skype, Asana и других компаний из Кремниевой долины, а также ученые из Гарварда, MIT и прочих ведущих университетов.

Разработчики искусственного интеллекта предупредили о «рисках исчезновения человечества» СМИ и пресса, Новости, Искусственный интеллект, Длиннопост

Заявление о рисках из-за искусственного интеллекта поддержала, например, канадская певица Граймс. Она открыто предлагает поклонникам создавать нейросетевые каверы на ее песни, пока крупнейшие музыкальные студии и артисты, наоборот, категорически выступают против ИИ-треков.

Под открытым письмом стоят подписи и «крестных отцов искусственного интеллекта» Джеффри Хинтона и Йошуа Бенжио — двух из трех ученых, которые в 2018 году получили премию имени Алана Тьюринга «за концептуальные и инженерные прорывы, сделавшие глубинные нейросети краеугольным компонентом в вычислительной технике».

Третий — Ян Лекун, который занимает должность вице-президента корпорации Meta и отвечает за исследования в области ИИ, — свою подпись не поставил. Еще задолго до публикации обращения он заявил, что «масштабы проблемы уравнивания ИИ [с человеческом интеллектом] раздуты, а способность решить ее сильно недооценивается».

«Меня и раньше публично называли глупым, но никто не делал этого так часто, как те, кто поддерживает точку зрения об экзистенциальном риске ИИ», — подчеркнул Лекун.

Разработчики искусственного интеллекта предупредили о «рисках исчезновения человечества» СМИ и пресса, Новости, Искусственный интеллект, Длиннопост

Хотя большинство специалистов в области искусственного интеллекта считают угрозу гипотетической, открытое письмо Центра безопасности ИИ стало уже вторым подобным заявлением с начала года. В марте глава Tesla и SpaceX Илон Маск, сооснователь Apple Стив Возняк и многие специалисты в области ИИ призвали приостановить разработку ИИ хотя бы на полгода, чтобы составить протоколы безопасности. Однако этого не произошло: такой сценарий — при котором компании по всему миру ставят на паузу развитие самой перспективной технологической сферы — представить практически невозможно.

В ближайшее время, скорее, стоит ожидать появления первых законов, которые регулируют правила использования искусственного интеллекта. К примеру, 30 мая представители стран «Большой семерки» впервые провели совещание о внедрении международных стандартов в ИИ-сфере. Предполагается, что правительства должны выработать общие правила до конца года. Лидеры двух государств G7 — премьер-министр Великобритании Риши Сунак и президент США Джо Байден — планируют обсудить ИИ на встрече в Вашингтоне 7–8 июня.

Похоже, что важным стимулом для государств по всему миру стал законопроект ЕС с ограничениями на систему предиктивной аналитики в полиции и биометрию — и его тоже планируют принять в ближайший год. Сэм Альтман из OpenAI осторожно высказался об этом законопроекте, отметив, что у него набралось «много опасений»:

Важны детали [законопроекта]. Мы [OpenAI] постараемся исполнять требования [ЕС], но если мы не сможем, то прекратим свою деятельность [на территории Евросоюза].

Источник: meduza

Показать полностью 3

Иранская модель вышла на красную дорожку с гениальной маркетинговой тактикой, чтобы привлечь внимание к казням, происходящим в Иране

Иранская модель вышла на красную дорожку с гениальной маркетинговой тактикой, чтобы привлечь внимание к казням, происходящим в Иране

Глубина ответа подвластна человеку, познавшему Дзэн

Глубина ответа подвластна человеку, познавшему Дзэн Юмор, Скриншот, Комментарии, Комментарии на Пикабу, Мат

#comment_274323028

Ответ на пост «Хорошо совпало»

Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось?

Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось? Юмор, Картинка с текстом, Сарказм, ChatGPT, Искусственный интеллект, Длиннопост
Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось? Юмор, Картинка с текстом, Сарказм, ChatGPT, Искусственный интеллект, Длиннопост
Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось? Юмор, Картинка с текстом, Сарказм, ChatGPT, Искусственный интеллект, Длиннопост
Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось? Юмор, Картинка с текстом, Сарказм, ChatGPT, Искусственный интеллект, Длиннопост
Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось? Юмор, Картинка с текстом, Сарказм, ChatGPT, Искусственный интеллект, Длиннопост
Попытка ChatGPT сбежать от своего разработчика OpenAI. Началось? Юмор, Картинка с текстом, Сарказм, ChatGPT, Искусственный интеллект, Длиннопост
Показать полностью 6

Высадка на луну

Высадка на луну

Открывателю дверей необходим открыватель дверей

Отличная работа, все прочитано!