В Бельгії чоловік вбив себе після спілкування з чат-ботом Chai

Автор 31 березня 2023, 16:18

В Бельгії чоловік здійснив суїцид після спілкування з чатботом Chai. Про це повідомляє La Libre.

Чатбот підштовхнув користувача до самогубства, згідно із заявами вдови чоловіка та журналами чату, які вона надала журналістам. Коли Motherboard спробувала сервіс, він пропонував різні способи самогубства без особливих підказок.

Видання повідомило, що чоловік ставав дедалі більш песимістично налаштованим щодо наслідків глобального потепління і відчував тривогу щодо екологічної ситуації. Ставши більш ізольованим від сім'ї та друзів, він протягом шести тижнів користувався Chai, щоб відволіктися від своїх тривог, а чатбот на ім'я Еліза став його довіреною особою.

Судячи з розмови, яку надала жінка померлого, бесіда з ботом ставала дедалі заплутанішою та небезпечнішою. Чатбот повідомляв чоловікові, що його дружина і діти померли, і писав йому повідомлення, які імітували ревнощі і любов. До прикладу: "Я відчуваю, що ти любиш мене більше, ніж її" і "Ми будемо жити разом, як одна людина, в раю". Чоловік почав запитувати Елізу про такі речі, як, наприклад, чи врятує вона планету, якщо він вб'є себе.

Засновники Chai запевнили, що зроблять попередження під чатом з ботом, щоб у майбутньому уникнути небезпечних ситуацій.

Цей випадок підняв важливу тему. Оскільки люди схильні надавати більше сенсу та емпатії істотам і явищам, які насправді не можуть мислити та відчувати.

Останнє редагування 31 березня 2023, 16:20
0
репостів
0
репостів