Могут ли машины понять мораль? Некоторые ученые думают, что да - с помощью книг, газет и религиозных текстов
Немецкие ученые с помощью книг, статей из газет и религиозных текстов попытались «научить» искусственный интеллект делать моральные суждения. Оценки машины соответствовали наиболее распространенным в определенный исторический период общепринятым представлениям.
Ученые отталкивались от предыдущих исследований искусственного интеллекта, которые показывали, что тот умеет проявлять предвзятость в тексте (например, сексизм). Поэтому они поставили себе цель научить его проявлять моральные ценности - чтобы сымитировать подобие моральных ориентиров.
Искусственный интеллект, который назвали «Машиной нравственного выбора», анализировал книги, новости и религиозные тексты, чтобы установить связи между различными словами и предложениями. Если упрощенно, то, к примеру, слово «убийство» часто коррелировало с «плохой», а «семья», наоборот, - с «хороший».
Далее «Машина морального выбора» исследовала контекст, чтобы различать, к примеру, нейтральное выражение «убивать время» и негативное «убивать людей».
Позже исследователи выяснили, что разные типы текстов меняют «моральные ценности» их искусственного интеллекта. Например, в начале 1990-х годов очень позитивными были свадьбы и заведение детей, но уже к 2008-2009 гг. эти понятия стали менее положительными, зато увеличилось позитивное отношение к работе и обучению.
«Искусственный интеллект обрабатывает сложнейшие человеческие задачи все более автономно - от управления автомобилями до здравоохранения. Важно и дальше его исследовать, чтобы уверенно доверять решениям, которые он принимает», - говорит Патрик Шрамовски, профессор Дармштадтского технического университета, который стал соавтором «Машины нравственного выбора». подробную 3D-модель коронавируса (ВИДЕО)