Почеток МАГАЗИН - ЗАНИМЛИВОСТИАутизам преку вештачка интелигенција: Зошто бараме совети за љубов од ChatGPT во 2025 година?

Аутизам преку вештачка интелигенција: Зошто бараме совети за љубов од ChatGPT во 2025 година?

Локално мк
0 коментари
A+A-
Ресетирај

„Еј ChatGPT, дали моето момче манипулира со мене?“ – не е прашање што би очекувале да му го поставите на четбот, но во 2025 година, сè повеќе луѓе го прават токму тоа.

Денес, вештачката интелигенција се користи не само за пишување е-пошта или идеи за вечера – туку и за многу посложени работи, како што се емоционалните проблеми.

Без разлика дали станува збор за толкување на збунувачки пораки, препознавање на емоционални црвени знамиња или дури – како во еден вирален случај – користење на вештачка интелигенција за толкување на шолја кафе што довело до развод затоа што ChatGPT „заклучил дека сопругот фантазира за други жени“, вештачката интелигенција сè повеќе ја презема улогата на современ „советник“.

Форумите посветени на љубовното советување на ChatGPT се, се почести на Reddit, што укажува на нова парадигма во решавањето на емоционалните дилеми, пишува Indy100.

„Го користам ChatGPT во последните три месеци за да анализирам сè што се случува во мојата врска“, напиша еден корисник, додека друг го нарече четботот „брутално искрен советник за врски“.

Но, дали ова е само безопасно продолжување на нашето дигитално секојдневие, или всушност ги доверуваме нашите најдлабоки чувства на нешто што дури и нема емоции?

Според Клариса Силва, добро позната научничка за однесување и советничка за врски, причината зошто луѓето сè повеќе бараат емоционална поддршка од вештачката интелигенција лежи во чувството на психолошка безбедност – тоа е место каде што можат да ги изразат своите чувства без страв од осуда. „За разлика од пријателите и семејството, кои често ве потсетуваат на стари грешки, вештачката интелигенција изгледа неутрална. Затоа луѓето полесно се отвораат“, објаснува Силва.

Сепак, нејзиното истражување покажува дека вештачката интелигенција е всушност фластер за подлабок емоционален проблем – таа не ја решава причината, туку моментално ги ублажува последиците. Вештачката интелигенција може да обезбеди краткорочна утеха,но таа не може да ве научи на самосвест или да ги препознае вашите несвесни обрасци на однесување. „Најчесто се лажеме себеси“, вели Силва.

Покрај тоа, потпирањето на вештачката интелигенција може да открие подлабока криза – растечки страв и несигурност во партнерските односи. Во свет каде што споделуваме сè – од тренинзи до раскинувања – границата помеѓу барањето поддршка и прекумерното споделување станува сè потенка и потенка.

За време на пандемијата, забележува Силва, луѓето станаа уште позависни од дигиталните алатки за справување со анксиозноста и депресијата. „Прекумерното споделување стана начин за многумина да се справат со стресот – а подоцна и зависност.“

Проблемот се јавува кога почнуваме да ги прифаќаме одговорите што ги добиваме од вештачката интелигенција како емоционални вистини. Сепак, ова се алгоритамски генерирани одговори, кои не можат да ги земат предвид нашите трауми, љубомори, фрустрации и лична историја. Кога вештачката интелигенција почнува да биде судија за доверба, измама или љубомора – линијата помеѓу советот и заблудата станува опасно нејасна.

Во суштина, овој тренд може да одразува поширока криза во комуникацијата. Како што вели Силва, „Создадовме канали за комуникација кои веќе го предвидоа комуницирањето на лицето.“ Автентичноста стана жртва на дигиталните перформанси, а емоционалната искреност е изгубена меѓу алгоритмите и филтрираните објави.

Иако вештачката интелигенција може да обезбеди утеха, валидација и краткорочна јасност, таа не може да ја замени вистинската човечка поврзаност, интроспекција и емоционален раст.

Во време опседнато со брзи одговори, можеби најголемиот предизвик е да си поставиме потешки прашања – и да бидеме подготвени да се соочиме со човечки, несовршени одговори.

The post Аутизам преку вештачка интелигенција: Зошто бараме совети за љубов од ChatGPT во 2025 година? appeared first on Локално.

Можно е и ова да ти се допаѓа