Популяции колорадского жука характеризуются высоким уровнем полиморфизма, что обеспечивает его высокую экологическую пластичность и способность к быстрой адаптации в различных условиях. В нашей работе рассматривается изменчивость рисунка центральной части переднеспинки колорадского жука Leptinotarsa decemlineata в выборках разных лет в двух локалитетах Среднего Урала. Описаны новые варианты рисунка, не отмеченные ранее на территории Европейской части Российской Федерации, для которых характерна более высокая степень меланизации. Для этих вариантов характерно слияние центральных полос между собой и с нижним пятном. В популяциях Среднего Урала доминировали варианты 1-3 с суммарной частотой встречаемости 32-55 %, в заметном количестве встречался новый вариант a (5-12 %). В сумме частота новых, более меланизированных вариантов составляла 17-36 %. Обнаружена хорошо выраженная многолетняя изменчивость частот вариантов рисунка переднеспинки, связанная с постепенным повышением частоты встречаемости массовых вариантов 1-3. Отмечено резкое повышение частоты варианта 9 в 1998 году, до 18-20 %, синхронно в обоих локалитетах. В целом синхронные выборки были более схожи друг с другом, чем с выборками из тех же локалитетов в другие годы. Синхронная временная динамика частот встречаемости вариантов окраски может свидетельствовать о принадлежности этих поселений к одной большой популяции колорадского жука. В целом полученные результаты свидетельствуют о продолжающихся процессах становления популяционной структуры вида в новом ареале расселения - на территории Среднего Урала.
Исследования искусственного интеллекта являются одним из основных трендов современности. При этом научным сообществом осознаются значительные этические риски, связанные с его появлением, среди которых непрозрачность принятия решений, невозможность определения субъекта ответственности, проблема предвзятости и справедливости. Для минимизации и элиминации обозначенных рисков в литературе предлагается концепт искусственных моральных агентов, поведение которых выстраивалось бы на человеческих этике и морали. Однако возникают сопутствующие затруднения, наиболее важным из которых является невозможность однозначного выбора этической теории, связанная с их принципиальной несогласованностью. В данной статье предлагается рассмотреть деонтологию как один из вариантов, который может быть использован в структуре искусственных моральных агентов. Автор показывает преимущества деонтологии перед другими этическими системами: более простая формализация самой теории, системность и универсализуемость принципов, - а также потенциальные проблемы, такие как различение долженствования и категории допустимости, а также формализация конкретных максим. Однако помимо построения и выбора подходящей теории возникают затруднения, связанные с тем, каким образом определить, что созданный искусственный моральный агент в достаточной степени морален. Для этого в статье рассматривается моральный тест Тьюринга, который призван помочь ученым в этом вопросе.
В рамках данного исследования актуализируются этические и философские аспекты создания искусственных интеллектуальных систем и искусственных моральных агентов. Актуальность обращения к данной проблеме обусловлена насущными задачами осмысления процесса формирования цифровой этики, которая в пространстве современной культуры занимает всё более значимое положение. Неоднозначный характер данного феномена определил не до конца сформированный предмет анализа. Вместе с тем очевидно, что этические характеристики выступают частью общекультурного пространства встраивания в мир людей интеллектуальных систем и рефлексии над этим процессом. Таким образом, цель исследования состоит в выделении и анализе различных подходов к роли этической теории в структуре искусственных моральных агентов. Для этого реализуются следующие задачи. Во-первых, рассматриваются различные стратегии этической регуляции с точки зрения их формализации для использования в интеллектуальных системах. Особое внимание уделяется негативным проявлениям создания искусственных моральных агентов, а также анализируются аргументы против их появления. Среди последних выделяются как общеизвестные (проблема злонамеренного использования и экзистенциальные переживания человечества как вида), так и более специфичные для философии и этики (например, манипуляция поведением за счёт эмуляции эмоций и проблема удалённого доступа и использования). Во-вторых, поднимаются вопросы, связанные с этикой интеллектуальных систем, приводятся противоречия, связанные с их реализацией. В-третьих, анализируются деонтология и утилитаризм в качестве теорий, подходящих для формализации и использования в структуре и архитектуре искусственных моральных агентов. Для реализации обозначенных шагов используются методология этической и гуманитарной экспертизы и анализа кейсов. Основным материалом для проведения исследования служат теоретические модели реализации искусственных моральных агентов и встраивания в них этических теорий, таких как деонтология и утилитаризм. Также на основании кейса социального робота рассматриваются различия между деонтологией и утилитаризмом с точки зрения разрешения конкретных ситуаций. Результат исследования состоит в обнаружении как позитивных моментов, так и существенных изъянов в каждом из рассмотренных подходов. Например, использование утилитаризма как моральной арифметики больше и лучше отвечает требованиям формализации и использования в архитектуре искусственных моральных агентов, поскольку каждому действию и его последствиям возможно представить количественный параметр. Однако деонтология позволяет выстроить теорию разрешенных и запрещенных действий, которые способны лучше отражать реальный процесс совершения поступка. Основным затруднением для формализации деонтологии является проблема соотнесения типов долженствования и сложность работы с категорией допустимости действия, поскольку допустимое не является ни запрещённым действием, ни обязательным для исполнения. На основании проведённого анализа обоснована перспективность следующего вывода: недостаточно просто формализовать этическую теорию, необходимо сделать так, чтобы искусственные агенты могли самостоятельно построить этическую модель.