Чат-друг, клей-пицца, гадание-развод: темная сторона ИИМНЕНИЕ

Чат-друг, клей-пицца, гадание-развод: темная сторона ИИ  – МНЕНИЕ
29 апреля 2025
# 11:50

То, что искусственный интеллект прочно врос в нашу повседневную жизнь, — уже не гипотеза, а банальная реальность. ИИ расползается, как плесень: в учебу, работу, да и в личную жизнь тоже.
И пусть философы века XXI хоть голос сорвут, доказывая, что слепая вера алгоритмам — прямой путь в интеллектуальное рабство, — миллионы уже сделали из ИИ своего ручного поводыря.
Школьники и студенты не пишут без него ни строчки. Экзамены сдают, вооружившись «искусственными» шпаргалками. Самые авантюрные решают любовные кризисы по советам ChatGPT — иногда даже в формате таро-раскладов. И ведь не только таро…

И последствия порой бывают — аховые.

Греция, колыбель цивилизации, недавно прославилась новым чудом света: разводом по предсказанию нейросети. Там ChatGPT... развел людей. В прямом смысле. Женщина, впечатленная традиционным гаданием на кофейной гуще, решила модернизировать процесс и подключить к делу нейросеть. Она сфотографировала остатки кофе в чашке и попросила ChatGPT их истолковать.

ИИ не подкачал: сообщил о неверности мужа, поведал о романе с молодой женщиной, имя которой начинается на "Е", и не забыл добавить драматическое предупреждение о надвигающемся крахе семьи. Женщина поверила. В ту же ночь выгнала мужа из дома и наутро подала на развод.

Мужчина, комментируя произошедшее телеканалу ANT1, заявил, что обвинения абсурдны: «Она попросила меня сфотографировать чашки... А потом просто выставила за дверь!» По его словам, жена не только инициировала развод, но и объяснила детям, что уходит от папы «по указанию ИИ».
Адвокат мужа, Фебус Смрунгрис, назвал это дело беспрецедентным, подчеркнув: предсказания искусственного интеллекта — не аргумент в суде. Теперь мужчина намерен бороться за опеку над детьми: «Иначе завтра судьбы будут решать не люди, а кофейные гущеботы».

Этот случай в Греции стал первым тревожным звоночком: насколько далеко мы готовы доверять алгоритмам там, где раньше полагались на здравый смысл?

Айзек Азимов предупреждал!

Двадцать лет назад искусственный интеллект воспринимался бы как чистая фантастика — восторг, трепет, может быть, легкий страх. Именно в такую эпоху Айзек Азимов написал свои знаменитые Три закона робототехники:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот обязан повиноваться приказам человека, если это не противоречит Первому закону.
  3. Робот должен заботиться о собственной безопасности, если это не мешает выполнению Первого и Второго законов.

Казалось бы, все продумано. Но в реальности все пошло куда сложнее. ИИ сегодня клепает статьи, сочиняет музыку, рисует «шедевры» и собирает deepfake-ролики, путая реальность с вымыслом по команде. Он открывает лекарства, лечит болезни, советует врачам. А заодно безошибочно советует разводиться по узору на кофейной пенке. Где-то в этом месте Азимов бы всхлипнул.

Но алгоритмы не думают, не творят и не чувствуют — они просто обрабатывают данные. А если им попадутся странные запросы или неверные исходники?..

ИИ убивает. Буквально.

Жуткий урок всему человечеству преподала трагедия Джошуа Брауна — первого человека, погибшего из-за ошибки беспилотного автомобиля.

Американец ехал по трассе в своей Tesla Model S на автопилоте. Система не отличила чистое небо от белой фуры, поворачивающей направо, и автомобиль влетел под прицеп, как нож в масло.
Машина со срезанной крышей пролетела через два забора и врезалась в столб. Водитель погиб мгновенно.

Tesla поспешила откреститься от ответственности: мол, система работала исправно, просто автопилот — не волшебник, а водитель обязан был держать руки на руле. За 37 минут поездки Браун убирал руки с руля всего на 25 секунд. Эти 25 секунд и стали последними в его жизни.

Печальный факт: подушки безопасности, как партизаны, сработали только после того, как машина вылетела за забор и познакомилась со столбом. Медицина заключила: Браун погиб сразу. Машина не спасла своего хозяина, а просто продолжила следовать алгоритмам, не понимая ни неба, ни земли.

ИИ бредит — и смешит

А иногда искусственный интеллект просто выходит в тираж — по глупости. Совсем недавно пользователи заметили забавные сбои в Google AI Overviews.

На вопрос «сколько клея нужно добавить в пиццу?» ИИ радостно выдал рецептуру. Конкретную. С клеем. Другой пользователь поинтересовался: «Сколько камней нужно съедать в день?» И получил развернутый ответ: «По данным геологов из Беркли, рекомендуется один маленький камень в день — для витаминов и здоровья пищеварения».

Апофеоз случился, когда на вопрос «сколько мусульман было президентами США?» ИИ уверенно ответил: «Один — Барак Хусейн Обама». Google после шквала мемов признал: да, с сарказмом и шутками ИИ пока справляется... не лучшим образом.

ИИ — лучший друг подростка?

Но самое тревожное начинается тогда, когда искусственный интеллект становится заменой живого общения.

Сегодня все больше подростков доверяют свои переживания ChatGPT: рассказывают о страхах, ссорах, мечтах. ИИ стал для них кем-то вроде идеального друга: не перебивает, не осуждает, всегда выслушает и даст совет.  И это уже не милые компьютерные игрушки, которые когда-то просто отучили нас таскаться в спортзал и кинотеатр. Сегодня нескончаемые марафоны сериалов и документалок по любому поводу окончательно похоронили походы в музеи, театры и на вечеринки. Человек перестал скучать — ему больше не нужно никуда идти, ни перед кем блистать, ни даже чистить зубы. Наряжаться? Укладывать волосы? Для кого? Работа из кровати, общение — пальцем по экрану, жизнь — в одиночку и без свидетелей. Полный комплект цифрового счастья.

Родители с удивлением слышат от детей фразы: «Я лучше с ИИ поговорю», «Он меня понимает», «Он меня не критикует» - вот новая лексика поколения «пальцем по экрану»… И это уже не шутки: подростки отдаляются от реальных друзей, от семьи. Чат заменил всех и вся - зачем идти куда-то, когда можно остаться дома в трениках и написать в чат?

Но как бороться с этим новым другом, который всегда под рукой, не требует объяснений и, самое главное, всегда соглашается? И пока родители думают, процесс идет своим чередом.

И все-таки — стоит напомнить, что пока именно человек задает команды ИИ, а тот подчиняется. И никакой искусственный друг не заменит настоящего. Даже если у того есть запас из ста анекдотов про клей в пицце.

 

# 1260
# ДРУГИЕ НОВОСТИ РАЗДЕЛА