Поддержать команду Зеркала
Беларусы на войне
  1. «Хотел спасти хотя бы какое-то количество людей». Поговорили с дочкой задержанного беларуса, который отправлял данные в «Беларускі Гаюн»
  2. Признание Стрижака об отправке дикпиков собрало более 300 комментариев. Не все написавшие их поняли, в чем проблема поступка, — объясняем
  3. «До 2000 беспилотников за ночь»: через несколько месяцев российские удары по Украине станут шокирующе массированными — ISW
  4. Главу фонда BYSOL Андрея Стрижака обвинили в рассылке непрошеных фото своих гениталий женщинам. Он признал это и отреагировал
  5. «Мне жаль, что меня неправильно поняли». Тихановский объяснил, что имел в виду, когда говорил об «островах» для беларусов
  6. В Беларуси «взбесились» цены на товары. Эксперт прогнозирует, что ближайшие месяцы ситуация ухудшится
  7. В пяти точках Беларуси под землей лежат ядовитые «вечные химикаты». Ситуацией сильно обеспокоена Генпрокуратура — рассказываем
  8. «Не 3 гады, а 33 жыцця». Супруга экс-журналиста «президентского пула» Дмитрия Семченко подтвердила его выход на свободу
  9. Кресла-убийцы. Дома и на работе вас может подстерегать опасность, о которой вы не знали — объясняем, как ее избежать
  10. Прогноз по валютам: ждать ли доллар снова по 3 рубля? Неожиданное решение США
  11. «Я считаю, что нас довольно много: до 35% по стране». Беларус, который называет себя инцелом, рассказал, как пришел к этой мысли
  12. Заместитель Келлога рассказал, как под водку проводил с Лукашенко переговоры об освобождении политзаключенных


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.