---------------------------------------------------------------------------------
Выбираю•IT помогает в выборе будущей профессии абитуриентам
и студентам, в развитии профессиональных навыков молодым специалистам,
в выборе дополнительных программ обучения и специальных курсов. " /> ---------------------------------------------------------------------------------
Выбираю•IT помогает в выборе будущей профессии абитуриентам
и студентам, в развитии профессиональных навыков молодым специалистам,
в выборе дополнительных программ обучения и специальных курсов. " />

Портал издательского дома "ПОЛОЖЕВЕЦ и ПАРТНЕРЫ"
---------------------------------------------------------------------------------
Выбираю•IT помогает в выборе будущей профессии абитуриентам
и студентам, в развитии профессиональных навыков молодым специалистам,
в выборе дополнительных программ обучения и специальных курсов.

О портале Каталог профессий

Эксперт считает, что игнорирование этики в сфере ИИ приведет к закрытию некоторых проектов

Этические аспекты развития технологий искусственного интеллекта (ИИ) должны учитываться при разработке, в противном случае их нарушение может привести к закрытию некоторых проектов на этапе массового внедрения. Такое мнение высказал ТАСС директор Национального центра развития искусственного интеллекта (НЦРИИ) при правительстве РФ Сергей Наквасин в кулуарах международной конференции по искусственному интеллекту AI Journey.

Он напомнил, что в 2021 году в России был утвержден Кодекс этики в сфере ИИ, к которому присоединились более 270 российских организаций - государственных и частных. Этичный подход предполагает не только следование жестким регламентам, но и базовое чувство ответственности разработчиков за безопасность пользователя или бизнес-партнера, уточнил эксперт.


"Например, компания создает электросамокат с искусственным интеллектом, продукт выходит на рынок. Если водитель со всей скорости врежется в человека, потому что тот не входил в обучающую ИИ выборку, то кто будет виноват? Конечно, водитель. Он должен был нажать на условную красную кнопку и отключить ИИ перед столкновением, но он этого не сделал, так как понадеялся, что искусственный интеллект сам примет решение. После такого случая пользователь потеряет доверие к продукту и пересядет на обычный самокат, а разработчик ИИ-версии в итоге может закрыть проект. Причина - игнорирование этических принципов на более ранних этапах: разработки сценариев, обучении ИИ", - сказал Наквасин.


Глава НЦРИИ указал на то, что университет "Иннополис" уже выступил разработчиком программы летней школы по этике ИИ, а также принципов использования решений на основе ИИ, что стало одним из первых шагов в переходе от теории этичного поведения в этой сфере к его реализации на практике.


"Может быть, скоро появятся и первые специалисты по применению этики [в данной сфере] на практике. Возможно, на начальном этапе это будет волонтерство, кто знает. Но практика этичного развития ИИ сегодня рождается именно за счет таких шагов", - добавил он.

Источник: https://ai.gov.ru

 
Проект Издательского дома "Положевец и Партнеры"

По вопросам партнерства обращайтесь по электронной почте chooseit@samag.ru

Телефон: +7 499 277-12-45