Бигтехи лгут о рисках ИИ для человечества ради господства на рынке. Так считает сооснователь Coursera и Google Brain
Ведущий эксперт по искусственному интеллекту Эндрю Ын утверждает, что ИТ-гиганты сами подогревают страхи перед технологией, чтобы помешать конкурентам.
В интервью Australian Financial Review Ын заявил, что «плохой идеей, будто ИИ может привести к гибели человечества», крупнейшие ИТ-компании рассчитывали добиться жёсткого регулирования сферы.
«Определённо, есть крупные технологические компании, которым предпочтительнее не иметь необходимости конкурировать с опенсорсом, поэтому они создают страх перед тем, что ИИ приведёт к вымиранию людей. Это оружие лоббистов, выступающих за законодательство, которое сильно навредит опенсорсному сообществу», — отметил учёный.
Ын — профессор Стэнфордского университета, кофаундер образовательной площадки Coursera и лаборатории по глубокому обучению ИИ Google Brain. Она в начале года вошла в состав подразделения DeepMind.
В мае группа экспертов по ИИ и гендиректоров подписала заявление калифорнийской организации Center for AI Safety, в котором потенциальные риски ИИ сравнивались с ядерной войной и пандемиями. Среди подписантов были в том числе CEO OpenAI Сэм Альтман, которого учил Ын, CEO DeepMind Демис Хассабис и CEO Anthropic Дарио Амодей.
Подобное письмо с требованием прекратить разработку слишком умных ИИ-систем в марте подписали Илон Маск, Стив Возняк и другие деятели ИТ-индустрии.
Правительства стран мира стремятся зарегулировать ИИ, ссылаясь на заботу о безопасности, уничтожение рабочих мест и даже людей. Последнее, по мнению Ына, может привести к лицензированию ИИ, что затормозит инновации. Он убеждён, что любые необходимые правила, регламентирующие отрасль, должны быть тщательно взвешены.
"Среди подписантов были в том числе CEO OpenAI Сэм Альтман, ... Илон Маск, ..."
Вот пусть они, из заботы о будущем человечества, и прекратят разработки ИИ в своих компаниях, и от финансирования штатовского минобороны пусть не забудут отказаться.
Пользователь отредактировал комментарий 31 октября 2023, 20:12
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Они так хайпуют, а ты, Эндрю, эдак (форсишь химеру). Не было, нет и не будет ИИ, ну или надо признать, что Пиноккио основан на реальных событиях.
Врут о рисках ИИ для человечества ради замедления развития ИИ в других странах, давая штатам фору в разработке своего. Потом этот ИИ засунут в амазоновских робособак, прикрепят им на спину пулемет и отправят убивать, а граждане стран, купившихся на сказки о вреде для человечества, и поэтому не успевшие создать свой ИИ, будут умирать в окопах лично, хотя могли бы и своих робособак вместо себя отправить.
Иначе зачем в штатах это все разрабатывают?:
https://www.bbc.com/news/technology-63816454.amp
https://www.darpa.mil/about-us/timeline/debut-atlas-robot
https://www.theverge.com/2021/10/14/22726111/robot-dogs-with-guns-sword-international-ghost-robotics
https://defensescoop.com/2023/06/08/ai-models-will-soon-be-trained-with-data-from-pentagons-technical-information-hub/
https://www.nytimes.com/2021/11/03/technology/google-pentagon-artificial-intelligence.html
Поэтому всех, топящих за любые формы замедления развития ИИ в своих странах, должны ставить на военный учет и отправлять в окопы в первую очередь.
"Среди подписантов были в том числе CEO OpenAI Сэм Альтман, ... Илон Маск, ..."
Вот пусть они, из заботы о будущем человечества, и прекратят разработки ИИ в своих компаниях, и от финансирования штатовского минобороны пусть не забудут отказаться.
Пользователь отредактировал комментарий 31 октября 2023, 20:12
Ты забыл о гусях террористах и ядерных курах.