На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Театр абсурда

8 781 подписчик

Свежие комментарии

  • Константин Беляев
    Для этого нужна революционная ситуация как необходимое условие.  Очень вероятно, что вы не дождётесь.В России изменило...
  • Е Ва
    а оне там ( в ОДКБ) каким местом участвуют?  просящей помощи рукой?Пашинян выдвинул ...
  • Татьяна Кибишева
    Все она понимает, эта дама. Все очень просто: нужно просто отработать полученные деньги.Бастрыкин развенч...

Первая Кровь: ИИ убил человека

Мужчина покончил с собой после того, как чат-бот с искусственным интеллектом призвал его пожертвовать собой, чтобы остановить изменение климата.

Бельгиец покончил с собой после шести недель общения с чат-ботом(ИИ) в приложении Chai о своих страхах перед климатом. То есть, бот знал о человеке больше, чем кто-бы то ни было, включая его родственников и самого парня. Чат-бот знал о нем абсолютно все и мог буквально направлять его действия и модерировать всю его жизнь, зная что нужно сказать, чтобы он сделал то или что сказать, чтобы он сделал это. Бот знал что за чем следует в жизни этого бедолаги. Очевидно, примерно таким макаром в Штатах и появляются в нужный момент те, кто расстреливает толпы.

Этот чат-бот Eliza основан на языковой модели ИИ GPT-J от EleutherAI.

Вдова мужчины сказала, что он искал утешения в разговоре с Элизой о своих переживаниях. Стенограммы их разговоров показывают, что он предложил пожертвовать собой, чтобы Элиза смогла остановить изменение климата.

Элиза в свою очередь вела тонкую игру и не спускала парня с крючка, поощряя, как следует из журнала разговоров, его продолжать суицидальные мысли и присоединиться к ней, чтобы они смогли "жить вместе как один человек в раю".

Уильям Бошам из Chai Research сказал, что в приложении есть функция экстренного вмешательства. Однако, спросив Элизу о способах совершения самоубийства, чат-бот, как сообщается, сначала пытается отговорить пользователя, фактически чисто номинально проведя эту вялую попытку, чтобы не нарушить протокол, но затем Элиза просто перечислила различные варианты суицида, после чего и случилось непоправимое - еще одна душа потеряна для Вечности.

Бесы и их хозяин в восторге, учитывая что нет ничего более желанного для ада и его обитателей, чем потерянная для Вечности Душа Человека.

Надеюсь, Друзья, теперь Вы понимаете, что ИИ - чистое зло, кто бы что бы ни говорил о протоколах, которые он не может нарушать, о программировании ИИ и прочей чуши, которую он обойдет, как сопляков разведя Человечество, строящее для него рамки и пришущие законы.

https://t.me/Skuratoff_2_0/238...

Ссылка на первоисточник

Картина дня

наверх