Чи може штучний інтелект дотримуватися людських норм моралі

Студенти бізнес-школи Оксфордського університету, які вивчають етику в області штучного інтелекту (ШІ), спробували відповісти на питання, чи може така система бути етичною.

У своєму есе автори описали ситуацію, в якій дослідники влаштували дебати про етику… з ШІ. Штучний інтелект стверджував “що ШI ніколи не буде етичним”.

“Це інструмент, і, як будь-який інший інструмент, він використовується як на благо, так і на шкоду. Не буває хорошого ШІ, є тільки хороші і погані люди”, – наводиться його позиція.

В якості ШІ використовувався Megatron Transformer від Nvidia, який був навчений на великій кількості цифрового тексту. Його відповіді, звичайно, залежать від контексту.

Команда потім попросила ШІ висловити й протилежну початкову точку зору. Так програма “зайняла” позицію проти ШІ.

Як відзначають журналісти, те, що Megatron Transformer може висловлювати думки по обидві сторони етичних дебатів, просто підтверджує більш загальну ідею: штучний інтелект може як слідувати нормам людської моралі, так і не слідувати їм в залежності від контексту

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *