Пока одни компании стремятся создать «этичный» ИИ, другие уже тестируют его в военных операциях. Этот парадокс лежит в центре острой дискуссии, развернувшейся среди экспертов. На фоне растущей критики в адрес крупнейших разработчиков искусственного интеллекта и даже призывов к их бойкоту в социальных сетях, вопрос ответственности технологических гигантов звучит всё громче.
Стефани Деккер, ведущая дискуссии, вместе с гостями попыталась разобраться, могут ли так называемые «этичные альтернативы» действительно составить конкуренцию и соответствовать заявленным принципам. Технокритик и писательница Ая Джафф обратила внимание на глубокое противоречие: многие компании декларируют этичные стандарты, но при этом их технологии потенциально могут использоваться в оборонных целях.
Особый интерес вызвала позиция стартапа Thaura.AI, представленного его сооснователями Саидом Хихаби и Хани Хихаби. Их инициатива — часть новой волны проектов, которые бросают вызов гегемонии «Больших технологий». Цель — создание более прозрачных и подотчётных систем искусственного интеллекта, где каждый этап разработки и возможного применения открыт для общественного аудита.
Эксперты сошлись во мнении, что проблема не только в алгоритмах, но и в людях, которые их создают и внедряют. Ключевой вызов — заложить этические нормы не как красивую маркетинговую надпись, а как фундаментальный принцип работы системы. Пока же гонка технологий опережает развитие правовых и моральных рамок, что делает диалог между разработчиками, регуляторами и обществом вопросом не просто актуальным, а жизненно необходимым. Будущее, где ИИ принимает решения в критических ситуациях, уже не фантастика, а потому определять правила игры нужно сегодня.