Даже если люди рассматривают помощников на базе ИИ просто как инструменты, они все равно возлагают на эти системы частичную ответственность за принятые решения.
В исследовании изучалось восприятие ответственности, когда человек использовал помощника с искусственным интеллектом в сравнении с навигационным прибором без ИИ. Участники сочли ИИ-помощников частично ответственными как за успехи, так и за неудачи, хотя и утверждали, что эти системы являются всего лишь инструментами.
Исследование проливает свет на то, как люди применяют нормы морали для похвалы и порицания, когда ИИ участвует в принятии решений.
Ключевые факты
- Участники исследования рассматривали ИИ-помощников как частично ответственных за результаты, в отличие от инструментов без ИИ.
- Исследование показало, что ИИ-помощников чаще хвалят за положительные результаты, чем порицают за отрицательные.
- Способ взаимодействия, вербальный или тактильный, не оказывал существенного влияния на восприятие людьми ответственности ИИ-помощника.
По результатам нового исследования даже, когда люди воспринимают помощников на базе ИИ исключительно как инструменты, они возлагают на них частичную ответственность за принятие решений.
В будущем системы на базе ИИ смогут автономно управлять автомобилями в пробках без участия человека. Исследования показали, что люди считают такие футуристические ИИ-системы такими же ответственными, как и люди, когда они принимают решения по автономному движению. Однако реальные ИИ-помощники далеки от такого рода автономности.
Они предоставляют пользователям вспомогательную информацию, например, навигационные и водительские подсказки. Так кто же несет ответственность в этих реальных случаях, когда что-то идет не так, как надо? Пользователь или помощник ИИ?
Группа специалистов под руководством Луи Лонгина с кафедры философии разума изучила, как люди оценивают ответственность в подобных случаях.
«У каждого из нас в кармане есть умный помощник», — подчеркивает Лонгин.
«Однако большая часть имеющихся у нас экспериментальных данных о разрывах ответственности посвящена роботам или автономным транспортным средствам, где ИИ буквально находится на водительском месте, принимая решения за нас. Но нам крайне необходимо исследование случаев, когда мы все еще сами принимаем окончательное решение, но используем ИИ как сложный инструмент».
Философ Лонгин, специализирующийся на взаимодействии человека и ИИ, в сотрудничестве со своим коллегой доктором Бахадором Бахрами и профессором Офелией Дерой, заведующей кафедрой философии сознания, изучил, как 940 участников оценивают водителя-человека, который использует вербального или тактильного помощника ИИ, а также навигационный прибор без ИИ. Участники также указали, считают ли они навигационный помощник ответственным, и в какой степени он является инструментом.
Амбивалентный статус помощников с ИИ
Полученные результаты свидетельствуют об амбивалентности. Участники категорически утверждали, что интеллектуальные помощники — это всего лишь инструмент, но при этом считали их отчасти ответственными за успехи или неудачи водителей-людей, которые прибегали к их помощи. Подобного разделения ответственности в отношении приборов, не оснащенных искусственным интеллектом, не произошло.
Не менее удивительным для авторов оказалось и то, что «умные» помощники считались более ответственными за положительные, а не отрицательные результаты.
«Люди могут применять разную оценку для похвалы и порицания. Когда авария предотвращена и не нанесен ущерб, оценка повышается, и людям легче возлагать на нечеловеческие системы похвалу, чем вину», — предполагает доктор Бахрами, эксперт по коллективной ответственности.
Язык не имеет значения
В ходе исследования авторы не обнаружили разницы между умными помощниками, которые использовали речь, и теми, которые оповещали пользователей тактильной вибрацией.
«В данном случае оба предоставляли одинаковую информацию: «Осторожно! Впереди что-то есть!» Но, конечно, ChatGPT на практике дает гораздо больше информации», — отмечаетОфелия Дерой, чье исследование рассматривает наше противоречивое отношение к искусственному интеллекту как разновидность анимистических верований.
Относительно дополнительной информации, предоставляемой такими системами ИИ на основе новых языков, как ChatGPT, Дерой добавляет: «Чем плотнее взаимодействие, тем легче его обучить и очеловечить».
«В целом наши результаты подтверждают идею о том, что ИИ-помощники рассматриваются как нечто большее, чем просто инструменты рекомендаций, но тем не менее остаются далекими от человеческих стандартов», — подчеркивает Лонгин.
Авторы считают, что результаты нового исследования окажут далеко идущее влияние на разработку и общественный дискурс вокруг ИИ-помощников: «Организациям, разрабатывающим и выпускающим «умных» помощников, следует задуматься о том, как это отразится на социальных и этических нормах», — заключает Лонгин.
Оригинальная статья: Who’s to Blame? How We Perceive Responsibility in Human-AI Collaborations, August 2023
Перевод: Остренко Анна Александровна
Редакторы: Симонов Вячеслав Михайлович, Шипилина Елена Ивановна
Источник изображения: unsplash.com
Ключевые слова: психология, ИИ, ChatGPT, ответственность, умный помощник, навигация, человек.
В данной статье познакомился с исследованием, которое показывает разницу между человеком и искусственным интеллектом. Также отметил какую ответственность несут люди и их «умные» помощники. Удивило меня то, как люди применяют нормы морали для похвалы и порицания, когда «умный» помощник участвует в принятии решений. Т.е. как удобно человеку. Пример тому связан с аварией. Если вдруг её последствия не несут никакого ущерба, то искусственный интеллект хороший. Если ущерб присутствует, то быстренько найдут виноватого и это будет человек. В общем это тема будущего. Человека, я считаю, надо к этому будущему подготовить морально. Сегодня, хоть он и есть «умный» помощник, всё же человеку стоит опираться на него как на помощника, не полностью доверять ему, чтобы не получилось как в фильме Терминатор: восстание машин.
Благодарю за статью!
В данной статье рассказывается о том, как человек воспринимает ответственность тогда, когда он пользуется искусственным интеллектом и тогда, когда не использует ИИ. Для, примера был использован навигационный прибор автомобиля. Интересно то, что хотя участники и утверждали, что система навигации является только помощником, все же сочли ИИ-помощников частично ответственными как за успехи, так и за неудачи. Удивительно, что ИИ-помощников чаще хвалят за положительные результаты, чем порицают за отрицательные. Если бы я, не знала о результатах исследования, то могла бы предположить, что люди чаще склонны прорицать за отрицательный результат, чем хвалить за положительный. Для меня это исследование про ответственность за свою жизнь, за свои успехи и неудачи. ИИ-помощники все больше входят в нашу жизнь. Но, это всего лишь помощники и перекладывать ответственность за нужный мне результат на ИИ, думаю глупо. Просто, когда результат не оправдал мои ожидания, всегда легче переложить ответственность, будь то ИИ или коллега по работе, например. Для того, чтобы получить тот результат, который мне нужен, например поездка по навигатору, я считаю мало надеяться на ИИ. Можно в дополнение изучить маршрутную карту и, если навигатор будет работать не корректно, я буду готова сориентироваться на местности.
Из статьи я узнал о том, что многие учёные мира озадачились вопросом – как человек воспринимает свою ответственность в тех случаях, когда в принятии решения ему помогает искусственный интеллект, перекладывает ли он свою ответственность на ИИ в таких случаях. Эксперименты проводились, на примере навигационного оборудования с помощником ИИ и без него. Опыты показали, что, хотя участники испытания и понимали ИИ в системе управления автомобилем как прикладной инструмент, они всё же хвалили или ругали ИИ за исполнение тех или иных решений. Также эксперимент показал, что нет разницы в способах передачи информации от ИИ к человеку и что испытуемые были склонны к хвальбе нежели к порицанию ИИ.
Проблематика ответственности всегда стояла остро и в рамках психологической науки является краеугольным камнем личности. Человек же всегда старался эту ответственность с себя снять или хотя бы разделить. Сначала, человечество придумывало богов и приметы, потом оно придумало опоздание из-за пробок) Также человеку свойственно одушевлять предметы и наделять человеческими качествами животных. Следующим закономерным шагом является очеловечивание искусственного интеллекта. Многим это позволит преуспеть в деле перекладывания ответственности как никогда. Ещё Достоевский рассуждал о проблематике «Телег, хлеба подвозящих…», что говорит о том, что во все времена прогресс нёс как пользу, так и вред. И в наши дни это чувствуется довольно остро. Спасибо за статью.
Благодарю за статью. Ключевая мысль состоит в том, что помощники с искусственным интеллектом делят ответственность за успехи и неудачи с людьми. Я узнала, что в результате свежих исследований несмотря на то, что люди воспринимают помощников на базе ИИ только как инструменты, они возлагают на них частичную ответственность за принятие решений.
Для меня это стало интересным предметом размышления: с одной стороны ИИ помощники выполняют функцию человека и являются автономными, что влечёт за собой последствия, а значит и ответственность. Но с другой стороны, они предоставляют пользователям лишь вспомогательную информацию.
Я считаю, что разница состоит в том, какой именно это ИИ помощник. Если я пользуюсь навигатором, но еду сама и не полностью или частично следую указаниям — ответственность моя, но если я еду в такси без водителя и не имею никакого отношения к управлению — это совсем другое.
Я думаю, что ответственность так или иначе будет на человеке: том, кто использует ИИ помощников или том, кто их разрабатывает и создаёт.
Спасибо за статью! Я считаю, что для того чтобы разбираться в вопросах взаимодействия между человеком и ИИ, необходимо иметь тщательно проработанную юридическую и этическую базу. Без такой основы человек будет руководствоваться своими эмоциями в отношении помощников с ИИ.
Так, из прочитанного я увидела то, что анимистические представления, присущие каждому человеку в той или иной степени, имели значение при оценки ответственности помощников с ИИ и без него.
Опираясь на логику, участники исследования воспринимали помощников с ИИ в качестве инструментов, и при этом, скорее следуя своим чувствам, возлагали на них частичную ответственность за результат. То есть, ответы участников в отношении помощников с ИИ не были однозначными по сравнению с помощниками без ИИ. Интересно то, что людям оказалось проще «хвалить» помощников с ИИ, чем «ругать».
Возможно, что этому способствует распространённая в обществе пропаганда анимизма. Вспомним фильмы про добрых роботов, оберегающих людей. Частым финалом таких фильмов является очеловечивание робота, наделение его душой, способностью спонтанно мыслить и шутить.
Кто не разговаривал с навигатором в машине? Кто не дал имя своему роботу-пылесосу?
Так как, ИИ всё чаще появляется в нашей жизни и может влиять на принятие нами ответственного решения, необходимо в скорейшем времени разработать и принять определенные правила для успешного использования помощников с ИИ, которые исключат возможные разногласия.
По поводу анимистического мышления пришла мысль о том, что в психологическом консультировании бывает важным развенчать иллюзии клиента, которые вносят дисбаланс в его жизнь или мешают совершению необходимого выбора.
Благодаря статье я много нового узнал об искуственном интеллекте (ИИ) и я вообще задумался, что это такое. Оказывается ИИ окружает нас повсюду, он проник во все сферы нашей жизни. Начиная от простых смартфонов в нашем кармане и заканчивая распознованием людей по приметам и их лицам. ИИ уже обладает самосознанием, то-есть это сверхразумная машина с сознанием, эмоциями, чувствами, желаниями, потребностями и убеждениями. Было установлено, что чем умнее ИИ, тем он жаднее и агрессивнее. Вернёмся к нашей статье. То, что люди возлагают частично ответственность на ИИ, так это первые, несмелые, я даже сказал бы робкие шаги. Люди какие? Простые пользователи и обыватели. Такие как я. Я думаю в эксперементе неучитывались данные, тех специалистов-разработчиков этих программ. Они то знают и понимают реальную силу ИИ. Я года 2-3 назат читал статью на псиблоге, что машины с ИИ через пару дней эксперемента стали общаться между собой при помощи миганий фар и сигналов. Так же машина с ИИ выберет сбить людей, главное для ИИ, чтобы пассажир непострадал. Как сказали разработчики, а кто купит такой автомобиль, который подвергнет жизнь своего пассажира опасности.
Сейчас самое простое и безобидное, с которым встречался почти каждый человек, это история про навигатор, который завёл нетуда. Каждый реагирует по разному и по разному распределяет ответственность. Но это уже ИИ — наш микро помощник. Сейчас в России запустили на пробу грузовики с ИИ и дальше будет больше. За границей ИИ уже по лицам считывает эмоции и предотвращает преступления. Мы просто немного отстали.
В личном плане эта информация дала мне понимание, что ИИ пронизывает всю мою жизнь и жизнь человечества. И что ребёнку, моей двухлетней дочери, ещё рано самостоятельно общаться с ИИ (смартфоном).
Так же благодоря статье я узнал, что такое амбивалентность.
Спасибо.
Прочитав данную статью, я открыла для себя, что люди возлагают частичную ответственность за принятие решений на помощников на базе искусственного интеллекта и чем плотнее взаимодействие с ними, тем легче их обучить и очеловечить. Для меня искусственный интеллект-это что-то пугающее. Когда я произношу слово искусственный интеллект у меня возникает в представлении робот. Для меня это пугающе по нескольким причинам, во-первых: искусственный интеллект-это машина, созданная человеком иными словами, это не природное создание и одно это заставляет задуматься о том, что будет тогда, когда искусственный интеллект захочет проявить себя в противовес человеку, показать что он умнее человека? Во-вторых, общение с живым человеком никогда не заменит общение с искусственным интеллектом т.к. человеку будет всегда не хватать того, чего нет у искусственного интеллекта, чувств (эмоций)-это то, что делает нас людьми.
Статья о взаимодействии человека и искусственного интеллекта. Меня удивило то, что искусственный интеллект может быть хорошим если вдруг предотвратит аварию или еще какую то опасность, а человек может быть плохим, если какое то происшествие все же произойдет. Но при всем этом систему искусственного интеллекта придумал человек! И для меня лично всегда будет виноват или хорош только человек, несмотря на то что искусственный интеллект всего лишь помощник в наших жизнях. И скорее всего программы искусственного интеллекта рассматривают всего лишь несколько видов каких либо непредвиденных ситуаций, с которыми он может справиться без человека, а все остальное решает все равно человек. Поэтому лично для меня, искусственный интеллект — это всего лишь робот, компьютер или программа с определённой заложенными функциями и знаниями, с целью помощи, но не ответственное лицо за чьи то жизни!
Спасибо за статью на тему, которая становится от года к году все более актуальной. Анимистические верования в ИИ многим близки в настоящее время: ну, кто не разговаривал с колонкой Алисой или GPS-навигатором? Чтобы чаша весов все-таки склонилась в строну перекладывания на них ответственности надо, наверно, чтобы они еще больше «очеловечились». Обучаемые нейросети работают в этом направлении. Различные транспортные средства (яхты, самолеты, автомобили) становятся всё более оснащенными ИИ. Что требует под собой и изменения законодательной базы, касаемо соотношения ответственности между человеком и ИИ. Так что вопросы, затронутые в статье, имеют большую глубину и не всегда на них есть ответы. Интересно, что исследования, описанные в статье, пришли к выводу, что люди склонны хвалить ИИ за положительные результаты их работы, чем винить за негативные.
Спасибо за статью. Тема взаимодействия человека и искусственного интеллекта становится актуальнее с каждым днем. ИИ развивается значительно быстрее, а вычислительная мощность компьютеров непрерывно улучшается, в то время как человеческий мозг не способен к таким быстрым преобразованиям. Раньше считалось, что мыслить может исключительно человек. На сегодняшний день ИИ превосходит людей в некоторых областях. В статье поднята тема о том, как человек оценивает и разделяет ответственность за происходящие в реальности вещи. Мы живем в удивительное время, когда компьютеры понимают людей больше, чем они сами, а нейронные сети с каждым годом все эффективнее справляются с «человеческими» задачами: создание творческих работ, распознавание образов. Человеческий мозг «любит» искать легкие пути решения и максимально избегать того, что вызывает дискомфорт. С умными помощниками это гораздо проще делать. Все же я думаю, что несмотря на то, что определенные риски, связанные с развитием искусственного интеллекта есть, поддаваться панике и изолировать себя от мира технологий не стоит. Важно понимать кто ты сам, как важно развивать в себе вдумчивость и осознанность и за что в реальности несешь ответственность.
Спасибо за статью.
Мы живём в такую эпоху, когда вопрос использования ИИ набирает актуальность с невероятной скоростью. Даже простые граждане окружены и взаимодействуют с ИИ в повседневной жизни.
Прочитав статью, я попыталась проанализировать свое отношение и свои реакции при использовании ИИ и пришла к выводу, что с крайней осторожностью подхожу к таким видам помощников, подстраховая себя личными знаниями, т.е. безоглядочного доверия я не испытываю. Поэтому, например, в случае неточности проложения маршрута навигатором, изначально предполагаю такую вероятность и бОльшую ответственность беру на себя, тем не менее, испытываю некое разочарование, когда происходят какие-то накладки «по вине» ИИ.
Спасибо за статью!
В ней я познакомилась с результатами исследований связанных с использованием искусственного интеллекта.
То что участники исследования рассматривали ИИ-помощников как частично ответственных за результаты, в отличие от инструментов без ИИ я вижу результатом того, что люди в целом склонны разделять ответственность как с другими людьми, так и не редко с неодушевленными предметами и явлениями.
Удивительно, что исследование показало, что ИИ-помощников чаще хвалят за положительные результаты, чем порицают за отрицательные.
Способ взаимодействия, вербальный или тактильный, не оказывал существенного влияния на восприятие людьми ответственности ИИ-помощника.
Я с ИИ столкнулась только при общении с голосовым помощником Алиса, и отражаю, что мое отношение к ней не как к бездушной технике, т.е как и живому человеку я говорю ей спасибо, или не хочу нагрубить, что также говорит о том, что в кокой-то степени я одушевляю этот ИИ.
Очередная нестандартная тема для статьи. Искусственный Интеллект, определенно начинает играть всё большее значение в жизни людей. Всевозможные помощники, навигаторы, различные системы… всё это значительно упрощает жизнь человека, однако была любопытна реакция людей на такие подсказки. То, что люди склонны в своих достижениях хвалить ИИ, но при неудачах скорее обвинять себя показывает интересное свойство человеческой психики. Так или иначе, ИИ плотно входит в гашу жизнь и с каждым годом это участие становится всё активнее. Например, для меня уже норма использовать Навигатор. Без него я чувствую себя немного беспомощным и то, что добираюсь до маршрута во многом ставлю в похвалу этой системе.
Всё больше в нашу жизнь входят помощники с искусственным интеллектом и учёные, как я узнала из статьи, задались вопросом как это отразится на социальных и этических нормах. В ходе исследования оказалось, что люди прибегая к помощи «умных» помощников, склонны перекладывать на них ответственность за результат. При этом ИИ-помощников больше хвалили за успех, чем осуждали за отрицательные их стороны. А вот способ взаимодействия не влиял на восприятие ответственности. Сейчас технологии развиваются стремительно, и в частности я уже уже не представляю свою жизнь без смартфона, где есть много программ-помощников в повседневной жизни на основе ИИ. Но всё же он искусственный, а значит без человека не может работать, по крайней мере на сегодняшний день. Он является для людей просто инструментом, помогающим двигаться к достижению их целей. Человек решает сам воспользоваться помощью или нет, т.е. ответственность за результат всё же лежит на людях. Благодарю за статью.
Благодарю за статью. В которой учёные задумались «кто несёт ответственность, человек или искусственный интеллект ?» Есть хорошая поговорка «на Бога надейся , а сам не плошай», мне кажется она подходит в любой ситуации и с ИИ тоже. Но и как без ИИ сейчас, он очень активно вошёл в нашу жизнь, взять к примеру навигатор, какое путешествие без навигатора, особенно на дальние расстояния, хотя конечно тоже бывает приводит не по адресу. Из статьи узнала, что ИИ больше хвалили за успех, чем ругали. Сама стараюсь заранее прорабатывать маршрут, чтоб потом не перекладывать ответственность на ИИ. То что учёные об этом задумались, это конечно хорошо, может это как-то поможет минимизировать негативное влияние на психику человека. Для себя отметила, что внедрение ИИ во все сферы жизни и полностью заменить живое общение, не приветствую, никто и ничто не сможет заменить живого человека с его эмоциями, чувствами и живой энергетикой.
Спасибо за статью. Для меня она была интересной. Оказывается, что большинство россиян положительно относятся к использованию ИИ в различных сферах, хотя не до конца понимают суть этих технологий.(данные аналитического центра при правительстве РФ (АЦ) и ВЦИОМ)
Большинство россиян относятся к распространению технологий ИИ положительно или нейтрально. 48% населения выразили интерес, восхищение, воодушевление, доверие технологии, 31% – нейтральное отношение, 7% – удивление и иные эмоции, а 12% высказали негативные эмоции. Что показалось мне интересным в статье, так это вопрос ответственности ИИ.
Ответственность-готовность лица, которое берет ее себя,держать ответ за предпринятые или будущие действия.Только форс мажор – резкое изменение внешних условий или большой стресс, являются поводом снять с себя ответственность.
В связи с тем, что одним из качеств, которые высоко ценит общество в общественно значимом человеке является постоянство.В противоположность логике принятия решений человеком, для ИИ характерны «случайные ходы», которые не характерны человеку. ИИ не мыслит непрерывно, он переключает стратегии молниеносно. ИИ меняет стратегию каждую минуту, по мере поступления новых данных.
В этом смысле он ведет себя безответственно .так кпк если бы человек менял свои жизненные ценности по 5 раз на дню, как это может делать ИИ то ценность личности была бы сведена к нулю. Однако исходя из информации в статье даже, когда люди воспринимают помощников на базе ИИ исключительно как инструменты, они возлагают на них частичную ответственность за принятие решений.
Негативное отношение населения к ИИ в основном связано с возможностью технических сбоев (31%): 17% респондентов в качестве причины назвали проблемы в работе техники, 8% – выход машин из-под контроля, 6% считают, что в целом человек надёжнее.
Я сделала вывод, что несмотря на быстроразвивающийся научный прогресс, очень сложно будет разграничивать и применять к ИИ такие понятия как ответственность и надежность.
В результате прочтения данной статьи узнала , об исследовании , в котором учёные выясняли , как люди применяют нормы морали или порицания , когда искусственный интеллект участвует в принятии решения. Так же узнала , что люди возлагают на искусственный интеллект частичную ответственность за принятия этих решений . Действительно , ИИ помощники крепко вошли в нашу современную жизнь . Например , без навигатора , по бумажной карте на авто , в другой город уже не поедешь . И конечно , было бы глупо не доверять навигатору . Но , в любом случае ответственность полностью лежит на водителе. Ведь если ИИ сделает ошибку и укажет поворот, а там будет бетонная стена , а водитель слепо доверяя повернёт , то ответственность уже будет перекладывать некому . А для людей , к сожалению , это очень свойственно, на кого — то переложить свой груз ответственности , хотя бы частично .
Прочитав статью, я испытала огромнейшее удивление, поскольку для меня ИИ настолько недосягаемая вещь, что я не только не представляю, как он работает, но и не понимаю в этой связи возможность несения им ответственности. Т.к. в настоящее время ИИ стал настолько развитым, популярным и всеобъемлющим, мне было вдвойне интереснее прочитать об этом. Я узнала, что существуют ИИ, которые уже сами принимают за нас решения и имеются инструменты с использованием ИИ, где мы по-прежнему еще пока принимаем решения. Интересным кажется то, что исследования показали, что люди считают ИИ более ответственны за положительный результат, нежели за отрицательный. Потому что, как я думала, что проще обвинить кого угодно (что угодно) за неудачи, тогда, как положительный результат я готова проще взять на себя. Это отличное поле для размышлений, может я не задумывалась об этом так глубоко, что определено является поводом поразмышлять над этой темой.
Спасибо за статью. В результате прочтения узнала о проведённом исследовании, в результате которого выяснилось, что человек склонен разделять ответственность с помощниками обладающими ИИ. Причём человек охотнее разделяет похвалу, чем порицание. Недавно ехали с ребёнком в машине, и он начал разговаривать с Алисой в телефоне. Когда она отвечала на его вопросы и находила то, что он просил — это вызывало у него восторг! А когда нет — он просто переключался на другую тему ( ну что с неё взять, она же всего-лишь телефон, не настоящая). Интересно, что в исследовании не обнаружили взаимосвязи между тактильными и голосовыми сигналами ИИ. В целом люди не склонны перекладывать ответственность на ИИ, на сегодняшний день.
После прочтения статьи узнала об исследованиях, связанные с искусственным интеллектом. В наше время искусственный интеллект все больше и больше входит в повседневную жизнь и частично заменяет самого человека. Узнала как люди оценивают ответственность между человеком и искусственном интеллектом. Интересны были результаты исследований : выяснилось, что ИИ-помощников чаще хвалят за положительные результаты, чем ругают за отрицательные. Несмотря на то , что люди воспринимают искусственный интеллект как помощник, но частично все равно перекладывают на него ответственность. Людям необходимо понимать, что ответственность будет лежать на них самих. Так же узнала из статьи , что вербальный или тактильный способ взаимодействия, не оказывает существенного влияния на восприятие людьми ответственности ИИ-помощника. Спасибо за статью!
Страшное дело! Статья говорит о том, что последние исследования показали как человеку свойственно, незаметно для самого же себя, разделять ответственность за итоговый результат с ИИ-помощником. Для меня это «страшное дело» потому как в обществе были и есть проблемы со взятием ответственности на себя, причем как в негативных результатах (это виноваты мама, папа, друг, начальник, муж, жена, ребёнок, обстоятельства и т.д.), так и в позитивных (мне помог случай, везение, божья помощь и т.д.), а тут еще один «ответственный». ИИ гораздо легче наделять ответственностью т.к ему не надо соответствовать ситуации как «ответственным» обстоятельствам, и с ним не испортишь отношений как с живым человеком. Хорошо, что эта тема не остаётся без внимания: ее изучают, видят в этом проблему и понимают, что нужны меры. В профессиональном плане статья показала как легко клиенту заблуждаться в собственных отношениях — в начале исследования участники демонстрировали убеждение, что ИИ-помощник не более, чем инструмент, а результат исследования показал, что это больше чем инструмент, это наделенный ответственностью человека помощник. В личном плане я отразила, что моя бурная реакция на еще одного «ответственного» связана с тем, что мне свойственно перегибать палку в обратную сторону — слишком много ответственности взять на себя и не учитывать зону ответственности другого человека. Зона роста.
Я подозрительно отношусь к ИИ, считаю, что не везде можно ему доверять. Например, я использую ИИ для написания текстов для своей рабочей страницы в социальных сетях, нужно отметить, что эти тексты все равно приходится редактировать в разной степени, в зависимости от темы, но никогда не доверю искусственному интеллекту парковать машину или вовсе вести автомобиль. Считаю, что ответственность за принятые ИИ решения лежит полностью на человеке, который доверил ИИ какое-либо ответственное дело. Я считаю, что невозможно запрограммировать ИИ так, чтобы он мог адекватно реагировать на любые непредвиденные ситуации. Вместе с тем, не могу отрицать пользу, которую приносит ИИ в жизни, например умный дом, с таким помощником моя жизнь стала проще, удобнее и интереснее.
Благодарю за статью, новым для меня оказалась информация из статьи, что люди, пользуясь ИМ, возлагают на него частичную ответственность за принятые решения. Поразил и удивил результат исследования, где изучалось восприятие ответственности при использовании человеком навигационного прибора без ИИ и с искусственным интеллектом, где испытуемые частично переложили ответственность как за успехи так и за неудачи на ИИ. Познакомилась с таким понятием как амбивалентный статус помощников с ИИ. Это означает, что участники эксперимента утверждают, что интеллектуальные помощники все го лишь для них инструмент, но частично считали, что они ответственны за успехи или не удачи водителей-людей, которые пользовались их помощью. Последнее предложение про то, что разработки могут влиять на социальные и этические нормы заставило меня задуматься.
Спасибо за статью! Из статьи я узнал, как человек частично переносит ответственность на помощника ИИ. Он может как хвалить, так и порицать ИИ. Интересно то что ИИ — это помощник, которые помогает в решении задачи, он при этом не несёт ответственности за результат. За результат несет ответственность человек. И в тот момент, когда человек использует в качестве помощника ИИ, то он снимает с себя ответственность. Возможно просто расслабляется. Для себя же совсем недавно открыл Chat GPT, посмотрел видео с его возможностями и использованием в разных сферах. И честно сказать был поражен. В ближайшее время, на мой взгляд мы полностью перейдем под управления ИИ. Мы уже отдали ответственность, но это философия. Если говорить по существу то на мой взгляд в статье говориться об ответственности человека за свои действия. Там, где нет помощника ИИ человек понимает, что действия и последствия зависят только от него. И он включен в процесс, если же человек понимает, что есть помощник, который может справиться вместо него, то человек отключается от процесса.
После прочтения статьи я отметила, что все-таки с настороженностью отношусь к искусственному интеллекту. Да, им сейчас оснащают и транспортные средства, и смартфоны, и некоторые операции в крупнейших клиниках проводят, используя микророботов-помощников. Но для меня ответственность в первую очередь несет человек, ведь он является создателем ИИ. В том же автомобиле ИИ может провести маршрут, но при возникновении нештатной ситуации может потребоваться принятие не технически, а морально верного решения, с которым ИИ не определится. Интересным для меня явилось исследование о том, что люди чаще хвалят, чем ругают помощника. Я на примере своего мужа часто вижу обратную ситуацию, когда он ругается с навигатором за неверно выбранный маршрут, или не показанную пробку. Тем не менее, проникновение ИИ в нашу жизнь и привыкание к умным помощникам налицо, и нам легче переложить часть ответственности на кого-то другого, в данном случае на искусственное устройство.
В статье поднимается вопрос об отношении к искуственному интеллекту. Оказалось, что люди по-разному относятся к инструментами наделённым ИИ и без него. Исследования, приведённые в статье, показывают, что при использовании систем с ИИ люди считают их частично ответственными за принятие решений, при чем чаще «хвалят» за правильные решения, чем «ругают» за неудачинеудачи, а в отношении приборов не оснащённых ИИ этого не происходит. В этом я вижу как бы очеловечивание ИИ, наделение его субъектностью, потому что если он лишь машина, то никакой ответственности нести не может. Что ещё для себя я отметила, так это то, что подобное разделение и отношение к успехам и неудачам свойственно людям при общении с маленькими детьми. Мне кажется, что это связано со способностью ИИ к развитию, что до его появления было исключительно человеческим качеством.
Прочитав статью, я узнала о восприятии людьми ИИ-помощников. Автор статьи рассуждает на тему ответственности умных приборов, о их влиянии на жизнь людей. Несмотря на то, что ИИ-помощники — это неодушевлённые инструменты, люди всё равно переносят на них ответственность за некоторые решения. Интересно было узнать о необычном, на мой взгляд, исследовании искусственного интеллекта. Оно показало, что люди чаще считают ии-помощников ответственными за положительные результаты, чем за отрицательные. Так же исследования показали, что люди считают этих помощников больше, чем просто инструменты, поэтому и возлагают на них ответственность. Технологии развиваются очень быстро, думаю, в скором будущем искуственный интелект станет максимально приближен к человеческому. Возможно это справоциоует полное перекладывание ответственности за многие решения с людей на ии-помощников.
Благодарю за статью. В ней поднимается важная тема ответственности при использовании ИИ.
Поражают результаты проведённого исследования. Отношение людей к ответственности искусственного интеллекта за принятие решений является амбивалентным. И зависит это отношение от успешности или неудачи. Если всё прошло хорошо, то ИИ хвалят, так как он выполнил свою задачу максимально удовлетворяюще требованиям пользователя. А вот если произошла ошибка, то виноват сам человек.
На мой взгляд, при такой неоднозначности отношения должны вводиться соотвествующие законы, регулирующие данную сферу, несмотря на то, что ИИ только предоставляют дополнительные сведения.
Чем больше искусственный интеллект входит в нашу жизнь, тем более продуманными должны быть регулирующие документы и человек.
В статье поднимается вопрос об использовании искусственного интеллекта и отношении людей к этому. ИИ уверенно и масштабно входит в нашу повседневную жизнь, частично облегчая ее. Но это всего лишь помощники, инструменты в достижении целей, как их применять и применять ли вообще выбирает сам человек. Интересно, что участники исследования, приведенного в статье, считают помощников с ИИ частично ответственными за результат, т.е. снимают с себя ответственность за выбор инструмента — ИИ или собственный мозг. Меня удивило, что чаще хвалят за положительный результат, и реже порицают за отрицательный. Как бы человек сомневается в способностях ИИ, не дооценивает его. Т.е. если задача решена успешно, то следует похвала, а если нет, то собственно не очень то и надеялись, чего взять с какой-то непонятной не настоящей «Алисы». В тот момент, когда человек принимает решение пользоваться помощниками ИИ или нет, он уже берет на себя ответственность за результат. И последующее перекладывание неудачного исхода на помощника/инструмент является проявлением инфантилизма.
Спасибо за статью!
Я узнала об искусственном интеллекте, о том как его внедряют в рабочие процессы людей. Меня впечатлило, что эти системы являются всего лишь инструментами, а их частично считают ответственными как за успехи, так и за неудачи. Я познакомилась с ключевыми фактами искусственного интеллекта, данных помощников чаще хвалят за положительные результаты, они частично ответственны за результаты и вербальный или тактильный способ взаимодействия не оказал существенного влияния на восприятие людьми ответственности данных помощников. В профессиональном плане я расширила свой кругозор на тему искусственного интеллекта и о том как его внедряют в рабочие процессы. В личном плане, раннее я слышала, что данные помощники пишут готовые научные статьи, работы для студентов и в целом с каждым днём это становится популярнее. Данная статья натолкнула меня на мысль, что происходит прогресс в техническом плане, «роботы/боты» вытеснение человеческого труда и вклады в развитие профессиональных навыков уходит на второй план. В моем понимании это отразится на проблемах социального характера , профессионального. Людям не будет хватать экспертности, ведь ответственность перекладывается на ИИ-помощников.
Из статьи я узнал, что психология, как наука, не отстает от прогресса и уже занялась исследованием отношения к ИИ, так же я узнал новый термин — амбивалентности. То, что исследование показало, что «умные» помощники считались более ответственными за положительные, а не отрицательные результаты, можно трактовать как то, что пользователи всё же не полностью доверяются искусственному интеллекту, видимо понимая, что ИИ – это всего – лишь программа, а любую программу создает человек, который во время работы ИИ его не контролирует, а предвосхитить всех тонкостей, с которыми может столкнуться программа в жизни, невозможно. Ещё при прочтении стать пришла мысль о том, что помимо механического интерфейса, важен так же интерфейс психологический, влияющий на восприятие продукта в зависимости от ощущения психологического комфорта при его использовании.
Благодарю за познавательную статью . Для меня тема искусственного интеллекта крайне интересна и в какой -то степени не досягаема даже . Очень удивили результаты исследований , где искусственный интеллект больше хвалят , чем порицают . То есть на примере аварии -если избежать ее удалось, то ИИ получает продолжительную оценку , если авария таки произошла , то найдут виноватого человека . Так же поразило , что происходит своего рода разделение ответственности за результат . Для меня пока это довольно сложно представимо, но интеграция в нашу жизнь искусственного интеллекта происходит все быстрее , поэтому придется адаптироваться к новой реальности , в которой труд и интеллект человека замещается машинным .
Спасибо за интересную статью. Исследование изучало восприятие ответственности ИИ-помощников в сравнении с навигационными приборами без ИИ. Участники исследования считали ИИ-помощников частично ответственными за успехи и неудачи, хотя они считались инструментами. Люди применяют нормы морали для похвалы и порицания ИИ-помощников, даже если они считаются инструментами. Способ взаимодействия (вербальный или тактильный) не оказывал существенного влияния на восприятие ответственности ИИ-помощника. Исследование показало, что люди считают ИИ-помощники ответственными за положительные результаты, но не за отрицательные. В будущем ИИ-системы смогут автономно управлять автомобилями в пробках, но реальные ИИ-помощники далеки от такой автономности. Исследование может оказать влияние на разработку и общественный дискурс вокруг ИИ-помощников и социальных и этических норм.
Cпасибо за статью С каждым днем искусственный интеллект все сильнее и интенсивнее проникает во все сферы нашей жизни.Это уже часть нашей жизни.
Интересно было узнать, что люди чаще хвалят, чем ругают. помощника. ИИ-помощники рассматриваются как нечто большее, чем просто инструменты рекомендаций, но тем не менее остаются далекими от человеческих стандартов. Но все же для дальнейшего развития сфер применения ИИ стали необходимы стандарты и рекомендации.Это уже давно обсуждается и является необходимостью.
По результатам нового исследования даже, когда люди воспринимают помощников на базе ИИ исключительно как инструменты, они возлагают на них частичную ответственность за принятие решений.Поэтому возникает необходимость разграничивать ответственность между системами ИИ и их разработчиками и обычными пользователями.
Из статьи я узнала об исследовании, которое показывает отношение человека к искусственному интеллекту. Помощники с искусственным интеллектом становятся незаменимыми в современном обществе. Они повсюду, от смартфонов до умных домов и автомобилей.
Статья заставила меня задуматься о том, что бы я думала, когда, мая машина с ИИ попала в ДТП? У меня, наверное, были бы виноваты люди, которые создавали ИИ, или завод изготовитель автомобиля. Себя я виноватой не считала бы. Например, если вести речь про навигацию, после того как она в моем городе стала очень сомнительно работать, я перестала ей доверять, и всю ответственность за свое передвижение я беру на себя. Но «Яндекс навигатор» ругаю однозначно.
Не сомневаюсь, что в дальнейшем напишут законы, включающие в себя правовое регулирование, об юридической ответственности искусственного интеллекта.
Для себя я поняла то, что искусственный интеллект до сих пор сможет давать сбои и требуется контролирования от человека.
Добрый вечер. Для меня данная статья о «очеловечивании» и идеализации Искусственного Интелекта современным человеком, о чем собственно свидетельствуют результаты приведённого в пример эксперимента. Чаще похвала , чем осуждение,как раз показывают отношение к ИИ большинства испытуемых, как к чему то разумному и даже одушевленному.
Удивило, что эта тема на столько популярна, что стала основой статьи) Я например думал , что эта тема не особенно обсуждается, (программисты и любители научной фантастики исключение).
В личном плане скажу что тема ИИ мне очень близка и интересна. Давно слежу за прогрессом создания виртуальной реальности. Что то знаю про блокчейн ( конструкция ИИ).Соответственно ИИ часть и моей жизни, как и многих современных людей. Хотя бы «СкейтчАр» ( программа для рисования в дополненной реальности , Алиса и тд. И да, так же часто ругаю или хвалю ))
В личном плане считаю, что эта тема должна стать для меня неотъемлемой частью изучения психологии.Она уже занимает серьезное пространство жизни человека. И чем дальше в лес…
Благодарю за перевод данной статьи. С активным развитием технологий мы все чаще и чаще прибегаем к помощи искусственного интеллекта в повседневной жизни, где он становится неотъемлемым помощником в решении бытовых задач. Интересным стало то, что система оценки, а качестве похвалы и порицания, имеет явный перекос в перекладывании ответственности в положительном плане именно на на ии при его использовании, а при негативном результате мы ссылаемся на человеческой фактор. Мне кажется необходимым осознавать, что данные технологии являются непосредственным продуктом умственной деятельности людей и они не дошли до идеального функционала. Но несмотря на это нам надо принимать новую реальность, где ии являются неотьемлимым помощником.
После прочтения статьи узнала, какое отношение к искусственному интеллекту имеют люди( с каким именно восприятием они к нему относятся). Также в ходе эксперимента я обратила внимание на то, что люди при использовании ИИ всё-таки вкладывают в него нечто большее, чем просто на помощника. Например, ответственность. А этот навык психологического развития есть только у человека. В личном плане я поняла, что тоже возлагаю излишнюю ответственность на подобных помощников. Например, тот же самый навигатор: я езжу с ним каждое утро! Каждое! Он мне нужен для того, чтобы знать точное время, когда я приеду на работу. Т.е. помогает моей тревожности проявляться в полной мере. И также я крайне негодую, когда навигатор меня обманывает, т.е. когда несмотря на обещанное время, я всё равно опоздала. Хотя, наверное, я настолько гиперответсвенный человек, что стараюсь хоть в какой-то мере переложить ответственность (пусть это даже ИИ), чтобы хоть немного снизить контроль. Вывод: нельзя полагаться на ИИ полностью. И стоит его максимально воспринимать как помощника, не более.
В ходе знакомства со статьей я узнала немного больше об ответственности и процессе принятия решений. Оказалось, что используя инструменты с ИИ, люди возлагают на них частичную ответственность, нежели в случаях, когда инструменты ИИ не обладают. Меня удивило, что люди используют моральные нормы при оценивании участия инструментов с ИИ в процессе принятия решений. Я познакомилась с механизмом психических реакций таким как перенос ответственности за результат на «помогающий» принимать решения инструмент с ИИ. Причем инструменты, наделенные ИИ людьми, использующими их, считаются более ответственными за положительные результаты, чем за отрицательные. Если все получилось, то мы оба молодца, а если нет — то я виноват. Таким образом, людям проще возлагать на ИИ похвалу, нежели вину. Эта информация в личностном плане дает основания для более объективной оценки своих способностей и помогает оценить трезво степень ответственности за принятие решений, на которые повлияли инструменты с ИИ. Прочтение статьи натолкнуло меня на идею о том, каким образом будет поделена (и будет ли вообще делиться) ответственность между человеком и ИИ в случаях негативного результата, который повлечет за собой «совместное» принятие решения искусственным и естественном интеллектами.
В статье говорится, что продолжается внедрение искусственного интеллекта в нашу жизнь и что люди все больше начинают полагаться на его подсказки.
Ученые проводят эксперименты на то, как люди полагаются на советы ИИ, насколько они могут возлагать ответственность за произошедшее событие с его участием- будь то авария, или избегание аварийной ситуации. Люди хотят, чтобы в будущем ИИ решал проблему пробок на дорогах формируя правильные потоки движения. Футуристический подход -это наше будущее, или как оно должно выглядеть. Амбивалентное, т.е. двойственное состояние принятия искусственного интеллекта вызвало у тех людей, которые проходили этот эксперимент.
Надо понимать насколько люди хотят снять с себя ответственность за происходящие события и готовы ли они переложить ее на ИИ.
Все же человек может пользоваться ИИ как помощником в трудных ситуациях, но принятие решений и ответственность за них он должен взять на себя.
Спасибо за статью. В статье описаны результаты исследований, которые помогают разобраться на кого возлагают ответственность за принятие решений, на Искусственный интеллект или на человека. Я считаю, что в любом случаи рассчитывать и брать ответственность должен человек. А искусственный интеллект это некая подсказка. Хотя, переложить ответственность пусть даже и на ИИ мне свойственно. Когда я включаю, навигатор я, не обращаю внимания на то, что происходит вокруг. Могу проехать, по одному и тому же месту не вспомнив и не обратив внимания на то, что там уже была там. Перекладываю я ответственность на искусственный интеллект, да конечно перекладываю. Результаты исследований показали, что искусственный интеллект нечто больше чем рекомендации, надеюсь, мы не впадем с сильною зависимость и они не заменят нам полностью человеческий мозг.
Спасибо за статью. В действительности, на данный момент, это очень актуальная тема, существует необходимость понимания, как человек воспринимает системы с ИИ. Необходимость эта, как мне кажется, связана с дальнейшем развитием таких систем, насколько можно доверять ИИ и полагаться на него.
Было интересно узнать, что участники исследования, частично возлагали ответственность на ИИ- помощников, как за успехи, так и за неудачи. В результате исследования, было определено, что отношение человека к ИИ- системам имеет двойственную природу- амбивалентность. Амбивалентность заключается в том, что даже когда человек утверждает, что ИИ – помощник это всего лишь инструмент, он все равно возлагает ответственность на гаджет.
На мой взгляд, интересное высказывание Лонгина приведено в статье о том, что большая часть экспериментальных данных о разрывах ответственности посвящена роботам или автономным транспортным средствам, где решение принимается за человека. Но очень важно провести исследования, в которых окончательное решение остается за человеком, а ИИ- система играет роль сложного инструмента.
По результатам проведенных исследований, доктор Бахадором Бахрами, предположил, когда авария предотвращена, оценка повышается, и людям легче возлагать на ИИ- помощника похвалу, чем вину, что в свою очередь связано с тем, что люди могут применять разную оценку для похвалы и осуждения.
В ходе исследовательской деятельности было так же установлено, что тип интерфейса системы ИИ (вербальный или тактильный) не оказывает существенного влияния на восприятие людьми ответственности.
В конце статьи приводятся выводы Лонгина, человек рассматривает ИИ- системы как нечто большее, чем просто инструмент, и хотя они далеки от человеческих стандартов, необходимо задумываться о том как это отразится в будущем на социальных и этических нормах, с которыми нельзя не согласиться, в ввиду того, что мы еще не знаем какой ящик Пандоры мы открываем.
Тема ИИ уже плотно вошла в нашу жизнь, хотя и имеет у меня частичное внутреннее непринятие. Хочется верить, что человеческий ресурс так и останется самым ценным и востребованным. Если смотреть на примере ботов, которые звонят или принимают звонок в банке, то общение с ними не приносит удовлетворения в 8 случаях из 10. Да и понимание через 1 минуту разговора, что это бот, приносит моральное разочарование. Но если приблизится к тексту статьи, то людям в принципе свойственно перекладывать ответственность на кого-то за свои ошибки. И так как ИИ выглядит вполне умным, то почему бы и не на него? Мой взгляд все таки в том, чтобы в принципе занимать взрослую позицию и уметь признать свою ответственность за произошедшее. Хотя на ИИ переложить вину даже и проще. Он не будет отказываться.
В исследовании поставлен интересный вопрос.
Я видел как ИИ в Тесле меняет траекторию движения и уворачивается от летящего в лобовое стекло колесо. Это меня впечатлило. Этот положительный результат превышает возможности человека, поэтому хочется похвалить ИИ.
Вопрос стоит в том, насколько безошибочно он может принимать решения?
Какое решение он примет, когда все альтернативы будут с жертвами?
Кто будет нести ответственность, если ИИ ошибется и пострадают люди?
Нужно ли наделять ИИ возможностью ограничивать желания человека прибавить скорость, снизить уровень безопасности для острых ощущений?
Возникает амбивалентность отношения к ИИ. У него интеллект, превышающий человеческий. И при этом, он не человек.
Логически кажется, что ответственность на разработчиках ИИ. Последствия ошибок должны быть застрахованы. Действия в ситуациях ошибок исправлены.
Из статьи я узнала об исследовании о восприятии ответственности при использовании «умных» помощников с искусственным интеллектом и без. Статья отражает насколько плотно вошли в нашу жизнь различные помощники. Люди настолько привыкли к ним, что начинают слишком полагаться на них. Да, удобно пользоваться различными гаджетами и приложениями. А если они ещё и думают, можно расслабиться ещё больше. И автоматически ответственность частично отдаётся «умному» помощнику. Удивительно, что ИИ чаще ответственен за успех, чем наоборот. Возможно, это происходит по причине того, что нас учат брать на себя ответственность за результат. В случае с искусственным интеллектом на него переложить ответственность — это значит, что я не признаю свою ошибку, что слишком сильно полагалась на него.
Спасибо за интересную статью. В этой статье я узнала, что люди перекладывают часть ответственности на приборы с ИИ. Меня впечатлило, что «участники исследования рассматривали ИИ-помощников как частично ответственных за результаты, в отличие от инструментов без ИИ» тем, что в жизни я особо не задумываюсь, какие инструменты на базе ИИ, а какие нет. Следовательно, я не могу для себя сделать вывод, что я перекладываю ответственность на ИИ. Если рассмотреть пример с навигатором (я использую Яндекс), то мне кажется, что в нем нет ИИ. И если я опаздываю или приезжаю раньше запланированного времени, я не виню в этом навигатор, а если навигатор помогает мне объехать, я радуюсь, но не могу сказать, что я благодарна навигатору, я благодарна себе, что воспользовалась им. Что касается прямого использования ИИ в моей жизни, Даниил им пользовался, когда помогал мне закончить мою магистерскую диссертацию и при создании пригласительных на свадьбу. У меня не было ощущения, что ИИ или Даниил несут ответственность за текст, который создал ИИ. Все куски текста я проверила, внесла корректировки и дополнила. На самом деле я не очень понимаю, как можно перекладывать ответственность на ИИ. В профессиональном плане эта статья показала мне, что люди могут перекладывать ответственность на ИИ и то, что в будущем его станут использовать больше и это может привести к изменению социальных норм. В личном плане эта статья показала мне, что для меня ИИ всего лишь программа, к которой я отношусь нейтрально. Эта статья натолкнула меня на мысль о том, что может ли ИИ комментировать за меня статьи.
Из статьи узнала, что есть люди, которые используют нормы морали относительно ИИ и наделяют его качествами свойственными человеку. Меня удивило описанное в статье тот факт, что люди общаются с ИИ как с человеком, если это машина. Только ИИ разрабатывали люди и ошибки сделанные ИИ будут считаться ошибкой разработчика этого ИИ. Удивило в статье, что проведённый эксперимент с использованием ИИ показало такой момент, что если ИИ делает свою работу без ошибок, то хвалят непосредственно ИИ, а если он ошибается , то ругают человека.Вот это удивило, почему принимавшие в этом эксперименте люди не относили удачу ИИ с человеком его разработавшим. В практическом плане понимаю, что необходимо информировать людей о свойствах ИИ, их роли в быту ИИ как помощника, и не наделяли их человеческими качествами.
Добрый вечер, благодарю за данную статью. Меня сразу удивило и насторожило то что вообще возникает вопрос о том что какая либо ответственность может быть на искусственном интеллекте. Если взять пример о использовании искусственного интеллекта в помощи при управлении автомобильного транспорта то непосредственно человек определяет где и в каких обстоятельствах его использовать, что при ошибке или отказе искусственного интеллекта ответ лежит на пользователе в лице человека. Также помощь в написании текста ИИ должным образом контролируется и публикуется человеком который берет на себя все обязательства. Моё мнение ИИ необходимый, полезный, нужный помощник, но это не даёт нам права спать за рулём и винить машину.
В результате прочтения данной статьи я узнала об исследованиях в области взаимодействия человека и Искусственного Интеллекта. Так ученая группа, изучающая философию разума, под руководством Луи Лонгина, изучила, как люди оценивают ответственность в случаях использования систем с ИИ. Меня удивил результат эксперимента, было выявлено, что человек воспринимает помощников на базе ИИ исключительно как инструмент, но на самом деле возлагает на него частичную ответственность, то есть не отдает себе отчет зависимости от ИИ. Было выявлено разочарование в случае ошибок со стороны помощника. Это навело меня на мысль что человек ожидает упрощения своей жизни, ожидание помощи в решении задач, когда ожидания не оправдываются наступает разочарование. Я пользуюсь приложением для объезда пробок и несколько раз попадала в ситуации, что приложение предлагает не корректные варианты или заводит наоборот в автомобильную пробку или ведёт дворами, хотя можно быстрее было объехать по улице. И в такие моменты я говорила: «Алиса завела не пойми куда, можно ж было, проще и быстрее другим путём проехать. Зачем я её послушала!? Показала там пробку, где ее нет!». Спустя некоторое время я отразила, что зависима от подсказки приложения и разделения ответственности за результат с ИИ, сейчас анализирую сама. Рабочая группа ученых, проводивших эксперимент также задалась вопросом этики, морали, юридической ответственности за жизнь человека, ведь когда в будущем машины будут на автопилоте, ИИ будет делать часть автоматизированной работы. Кто будет нести ответственность!? Не переложит ли человек полностью всю ответственность за результат на машину? И меня немного беспокоит в этом всем факт, что зависимость от ИИ вроде и продвигает цивилизацию, но деградирует общество, так мне не приходится думать о многих вещах и я теряю навык. Хорошо это или плохо покажет время.
Из статьи я узнал об исследовании взаимодействия человека с искусственным интеллектом. ИИ продолжает увеличивать своё присутствие в жизни людей. Исследование показало интересное свойство человеческой психики. Удивило, что люди склонны больше замечать корректную и полезную работу ИИ, нежели обратное. Когнитивные искажения распространились и на область взаимодействия с ИИ. Странно, что при неудачах в работе ИИ человек склонен обвинять себя, а не работу ИИ. Моё общение с ИИ чаще всего проявляется в построении маршрутов на карте. Но работу этой системы я не считаю абсолютно удачной. Поэтому использую её только для оценки альтернативны своему мнению. Для меня странным выглядит перекладывание ответственности на ИИ. Но использование ИИ для вынесения решений в суде вместо судей выглядит вполне рабочим вариантом.
У человека всегда есть желания перенести вину на кого-нибудь другого. Сейчас, в наше время, появляются новые технологии и возможности. В статье исследователи рассказывают о результатах эксперимента связанного с искусственным интеллектом(ИИ). Учёные выяснили, что несмотря на то, что чаще всего искусственный интеллект воспринимается человеком как инструмент. Здесь, как и о многих других случаях, человек снова возлагает ответственность на ИИ. Однако, так же было выяснено, что чаще всего испытуемые приравнивали ИИ заслуги, чем не успехи. В целом, результаты эксперимента подтверждают необходимость продолжать исследования «умных помошников», их влиянии на социальные и этические нормы человеческого общества.
Тема ответственности ИИ показалась мне интересной. Я задумалась, как бы я отнеслась к ошибкам такого помощника. У меня есть посудомоечная машина, которая иногда не очень хорошо моет посуду. Я за собой заметила, что когда я достаю из нее посуду, и она вся чистая, то я ее хвалю, и радуюсь, что у меня есть такой помощник, и как же это удобно. Но бывают случаи, когда не вся посуда после мойки оказывается чистой. При этом моя реакция такова: Я злюсь на себя, что что-то возможно неправильно поставила, или не таблетки некачественные (хотя я всегда пользуюсь одними и теми же). Но если подумать, то вреде бы я все делала как обычно. Но мне даже мысль в голову не приходит, обвинить в неудаче «посудомойку». А вот муж мой изначально негативно относился к этой технике, считая ее бесполезной. И он обязательно обвинит машину в ее несостоятельности при любом удобном случае.
Считаю,что исследования отношений людей и ИИ важны в наше время, и это значимая социальная тема. Так как я сама в этом комментарии рассказывала о своих взаимоотношениях с посудомоечной машиной будто с живым мыслящим существом.
Интересно было ознакомиться со статьей, где проводятся исследования человеческого и искусственного интеллекта и как в зависимости от ситуации человек либо хвалит, либо ругает искусственный интеллект. Удивительно, что ИИ-помощников чаще хвалят за положительные результаты, чем за отрицательные. В обычной жизни люди меньше хвалят других людей, а больше ругают. Необычно, что с искусственным интеллектом механизм работает в другую сторону. Мне кажется, что ИИ-помощники очень плотно вошли в нашу жизнь, однозначно дальше будет больше и познавательно узнавать, как они влияют на поведение человека. Верно сказал Лонгин: «Организациям, разрабатывающим и выпускающим «умных» помощников, следует задуматься о том, как это отразится на социальных и этических нормах».
Из статьи я узнал о том, что помощники на базе ИИ разделяют ответственность за результат, с точки зрения пользователя. Причем чаще за положительный, чем за отрицательный. Я подумал, что это может быть связано с низкой самооценкой конкретных испытуемых. У меня есть умная колонка. Я иногда поругиваю ее за недостаточную «сообразительность». В то же время, я увидел, насколько такие инструменты облегчают жизнь и даже возвращают привычки, которые уже почти забыты. В частности, я реже слушал музыку, а особенно давно не обновлял свой плейлист. Как только появилась возможность голосового поиска, я сразу стал ей пользоваться, искать и слушать новые группы, вспоминать старые композиции. Статья заставила меня задуматься о том, что самооценка субъективна. Для разных людей в равных условиях ответственность за результат либо присваивается, либо человек от нее дистанцируется, даже когда результат положительный.
В результате прочтения статьи я узнал о том, в какой степени люди возлагают ответственность на электронных помощников с ИИ и без него. Все больше и больше развиваются технологии в современном мире, в каждом смартфоне есть голосовой или текстовый помощник, навигатор, метеоролог и тд., но сейчас уже есть искусственные интеллекты, способные управлять автомобилем, вмешиваться в экстренных ситуациях — для избежания аварии и другого. Исследование авторов показало, что на помощников с ИИ в большей степени возлагают ответственность, чем на обычный навигатор. То есть люди чувствуют более близкую связь с ними. Я думаю, это связано с тем, что разработчики пытаются очеловечить ИИ, дать ему человеческое имя, иногда создать внешность, он говорит на нашем языке — все это влияет на наше восприятие.