Живете в Польше? Поддержите devby 1,5% налога: бесплатно и за 5 минут 🤗
Support us

Научить хорошему: DeepMind разработает этические принципы для искусственного интеллекта

Оставить комментарий
Научить хорошему: DeepMind разработает этические принципы для искусственного интеллекта

Принадлежащяя Google британская DeepMind займётся вопросами морали и этики искусственного интеллекта и создаёт специальную рабочую группу для этих целей, пишет The Guardian.

Читать далее

Иллюстрация: The Guardian

Группа DeepMind Ethics & Society займётся исследованием реального воздействия новых технологий. Компания привлечёт независимых консультантов из академических кругов и благотворительного сектора, чтобы разработать этические нормы и помочь инженерам внедрить их на практике.

«В разработке ИИ мы исходим из того, что приложения должны быть направлены на общественное благо и при этом оставаться под разумным контролем человека. Чтобы чётко понять, что именно это значит, — одна из наиболее чувствительных задач, с которыми сталкивается компания», — заявляют в DeepMind.

Команда будет работать в следующих областях: конфиденциальность и влияние ИИ на частную жизнь, прозрачность и «справедливость» искусственного разума в принятии решений, экономические последствия и управление рисками ИИ. Кроме этого, в зоне интересов комитета находятся и методы решения искусственным интеллектом глобальных проблем.

🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
«Живём один раз»: глава OpenAI сам нарушает правила безопасности ИИ
«Живём один раз»: глава OpenAI сам нарушает правила безопасности ИИ
«Живём один раз»: глава OpenAI сам нарушает правила безопасности ИИ
Как ИИ помогает малому бизнесу — и где бесполезен
Как ИИ помогает малому бизнесу — и где бесполезен
Как ИИ помогает малому бизнесу — и где бесполезен
ИИ сократит не всех: учёные вспомнили об одном важном факторе
ИИ сократит не всех: учёные вспомнили об одном важном факторе
ИИ сократит не всех: учёные вспомнили об одном важном факторе
Как чат-боты подталкивают к неверным решениям — исследование
Как чат-боты подталкивают к неверным решениям — исследование
Как чат-боты подталкивают к неверным решениям — исследование

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.