Ученые сравнили уничтожение ИИ с убийством животного
Системы искусственного интеллекта, способные испытывать чувства или осознавать себя, рискуют пострадать, если технология будет разрабатываться безответственно, говорится в открытом письме, подписанном практиками и мыслителями в области искусственного интеллекта, включая сэра Стивена Фрая.
Более 100 экспертов выдвинули пять принципов проведения ответственных исследований сознания ИИ, поскольку стремительный прогресс вызывает опасения, что такие системы могут считаться разумными, пишет The Guardian.
Эти принципы включают в себя приоритетное проведение исследований по пониманию и оценке сознания в ИИ с целью предотвращения “жестокого обращения и страданий”.
Другими принципами являются: установление ограничений на разработку систем сознательного ИИ; применение поэтапного подхода к разработке таких систем; доведение результатов до сведения общественности; и воздержание от вводящих в заблуждение или излишне самоуверенных заявлений о создании сознательного ИИ.
Среди подписавших письмо — ученые, такие как сэр Энтони Финкельштейн из Лондонского университета, и специалисты в области искусственного интеллекта из таких компаний, как Amazon и рекламная группа WPP.
Письмо было опубликовано вместе с новой исследовательской работой, в которой излагаются принципы. В статье утверждается, что в ближайшем будущем могут быть созданы системы с сознательным ИИ – или, по крайней мере, такие, которые создают впечатление сознательного.
“Возможно, что может быть создано большое количество сознательных систем, которые будут страдать”, — говорят исследователи, добавляя, что если мощные системы искусственного интеллекта смогут воспроизводить себя, это может привести к созданию “большого количества новых существ, заслуживающих морального уважения”.
В статье, написанной Патриком Батлином из Оксфордского университета и Теодоросом Лаппасом из Афинского университета экономики и бизнеса, добавляется, что даже компаниям, не планирующим создавать сознательные системы, понадобятся рекомендации на случай “непреднамеренного создания сознательных объектов”.
В материале признается, что существует широко распространенная неопределенность и разногласия по поводу определения сознания в системах искусственного интеллекта и того, возможно ли это вообще, но говорится, что это проблема, которую “мы не должны игнорировать”.
Другие вопросы, поднятые в статье, касаются того, что делать с системой ИИ, если она определяется как “моральный пациент” – объект, который имеет моральное значение “сам по себе, ради себя самого”. В этом случае возникает вопрос, сравнимо ли уничтожение ИИ с убийством животного.
В статье, опубликованной в Journal of Artificial Intelligence Research, также предупреждается, что ошибочное мнение о том, что системы искусственного интеллекта уже обладают сознанием, может привести к напрасной трате политической энергии, поскольку предпринимаются ошибочные усилия по повышению их благосостояния.
Доклад и письмо были подготовлены Conscium, исследовательской организацией, частично финансируемой WPP и соучредителем которой является главный специалист WPP по искусственному интеллекту Дэниел Халм.
В прошлом году группа высокопоставленных ученых заявила, что существует “реальная возможность” того, что некоторые системы искусственного интеллекта станут сознательными и “морально значимыми” к 2035 году, пишет The Guardian.
В 2023 году сэр Демис Хассабис, руководитель программы Google по искусственному интеллекту и лауреат Нобелевской премии, заявил, что системы искусственного интеллекта “определенно” не обладают разумом в настоящее время, но могут стать таковыми в будущем.
“Философы еще толком не определились с определением сознания, но если мы имеем в виду что-то вроде самосознания, то я думаю, что однажды может появиться искусственный интеллект”, — сказал он в интервью американской телекомпании CBS.