Прочитал статью про Джарвиса. Очень любопытно. И вот что заинтересовало. Из описания получается, что искусственный интелект наделяется правом диктовать моральные императивы ("нельзя включать музыку в комнате, где спит малыш, ибо он проснется и заплачет"). при всей логичности этой конструкции (простой алгоритм, простая причинно-следственная связь), тут есть одно "но". робот берет на себя право решать, "что для ребенка лучше", снимая при этом ответственность с родителей. То есть я могу придти домой с вечеринки, включить везде свет и врубить во всем доме музыку. Но робот сам примет решение не включать музыку и свет в комнате со спящим малышом. В результате с меня снимается требование к эмпатии. я могу не думать о реьенке, о нем позаботится робот. Интересно, не приведет ли такое к снижению эмпатии? Перенося эмоциональные функции в сферу действия искусственного интеллекта, мы, безусловно, облегчаем себе эизнь. но не обедняем ли её? "Знать контекст команд очень важно. Если робот включит музыку в комнате со спящим младенцем, Присцилла будет недовольна. Поэтому искусственный интеллект понимает, из какой комнаты к нему обратились. Например, можно сказать с кухни «сделай свет поярче», и Джарвис догадается, что яркость нужно отрегулировать именно на кухне."

Прочитал статью про Джарвиса. Очень любопытно. И вот что заинтересовало. Из описания получается, что искусственный интелект наделяется правом диктовать моральные императивы ("нельзя включать музыку в комнате, где спит малыш, ибо он проснется и заплачет"). при всей логичности этой конструкции (простой алгоритм, простая причинно-следственная связь), тут есть одно "но". робот берет на себя право решать, "что для ребенка лучше", снимая при этом ответственность с родителей. То есть я могу придти домой с вечеринки, включить везде свет и врубить во всем доме музыку. Но робот сам примет решение не включать музыку и свет в комнате со спящим малышом. В результате с меня снимается требование к эмпатии. я могу не думать о реьенке, о нем позаботится робот. Интересно, не приведет ли такое к снижению эмпатии? Перенося эмоциональные функции в сферу действия искусственного интеллекта, мы, безусловно, облегчаем себе эизнь. но не обедняем ли её? "Знать контекст команд очень важно. Если робот включит музыку в комнате со спящим младенцем, Присцилла будет недовольна. Поэтому искусственный интеллект понимает, из какой комнаты к нему обратились. Например, можно сказать с кухни «сделай свет поярче», и Джарвис догадается, что яркость нужно отрегулировать именно на кухне."
by Анатолий Шперх

December 22, 2016 at 08:39AM
from Facebook
via IFTTTfrom Facebook
via IFTTT