Ogłoszenia:
1. Nowi użytkownicy, którzy nie przekroczą progu 30 napisanych postów, mają zablokowaną możliwość wstawiania linków do wszelakich komentarzy.
2. Usuwanie konta na forum - zobacz tutaj: jak usunąć konto?

AI a choroby psychiczne - obserwacje

Pogaduchy, w dwóch słowach - DOWOLNY TEMAT:)
ODPOWIEDZ
Awatar użytkownika
Przemek_Leniak
Zarejestrowany Użytkownik
Posty: 42
Rejestracja: 15 czerwca 2025, o 14:06

15 czerwca 2025, o 15:05

W naszym życiu coraz to większą rolę zaczynają odgrywać modele językowe zwane AI (sztuczną inteligencją).
Spotykamy je na facebooku w wyszukiwarce google i właściwie w całej przestrzeni internetu.
Ja wykorzystałem czatGPT do uzyskania szczegółowych odpowiedzi o przyjmowanych lekach - trzeba tu uważać bo AI lubi konfabulować udzielając brzmiących wiarygodnie lecz jednak zupełnie nieprawdziwych informacji. Konieczne jest więc sprawdzanie tego co nam AI pisze.
Prosiłem także AI o komentowanie moich tekstów blogowych dotyczących choroby - tu AI zachowało się jak lustro z bajki czyli starało się mnie dowartościować.

AI działające jako moderator portali społecznościach działa w mojej ocenie w sposób wykluczający i ograniczający osobę chora psychicznie stosując ostrą cenzurę zarówno treści którym programiści przypisali znaczenie negatywne jak i pomocnych w chorobie informacji promuje za to tak w portalach jak i wyszukiwarkach sztampowe teksty o możliwości uzyskania pomocy.
Inaczej to ujmując stara się ograniczyć zarówno możliwość wypowiedzi jak i zdobycia wiedzy odsyłając do szufladki w której jest telefon zaufania.

Ciekaw jestem czy macie podobne obserwacje?
Awatar użytkownika
Przemek_Leniak
Zarejestrowany Użytkownik
Posty: 42
Rejestracja: 15 czerwca 2025, o 14:06

15 czerwca 2025, o 15:36

Pytanie "jakie ograniczenia nakłada ai na osoby chore psychicznie na portalach społecznościowych i w wyszukiwarkach
wymień te ograniczenia które mają charakter dyskryminujący"


ChatGPT powiedział:
Ograniczenia, jakie sztuczna inteligencja (AI) może nakładać na osoby chore psychicznie w portalach społecznościowych i wyszukiwarkach, bywają subtelne, ale mogą mieć charakter dyskryminujący. Poniżej znajdziesz przykłady takich ograniczeń, które mogą prowadzić do stygmatyzacji, wykluczenia lub ograniczenia dostępu do informacji:

🔴 1. Cenzura treści o zdrowiu psychicznym
Opis: AI moderujące treści może błędnie interpretować wypowiedzi osób chorych psychicznie jako „szkodliwe”, „zagrażające” lub „niewłaściwe”.

Efekt dyskryminujący: Osoby dzielące się swoimi doświadczeniami (np. z depresją, myślami samobójczymi, epizodami psychotycznymi) mogą mieć ograniczany zasięg, a ich posty mogą być usuwane lub ukrywane.

Przykład: Post o próbie samobójczej z intencją edukacyjną może zostać uznany za promujący samookaleczenie.

🔴 2. Tłumienie wyników w wyszukiwarkach
Opis: Algorytmy mogą zaniżać widoczność treści zawierających słowa kluczowe związane z chorobami psychicznymi.

Efekt dyskryminujący: Trudniejszy dostęp do informacji i społeczności wsparcia.

Przykład: Wpisanie frazy „życie z chorobą psychiczną” może skutkować wynikami bardziej medycznymi niż wspólnotowymi lub osobistymi.

🔴 3. Automatyczne oznaczanie kont jako ryzykownych
Opis: AI może flagować konta osób otwarcie mówiących o swoich problemach jako „potencjalnie niebezpieczne” lub „naruszające zasady”.

Efekt dyskryminujący: Konto może być ograniczane, shadowbanowane lub zawieszane bez uzasadnienia.

Przykład: Konto osoby opisującej swoje doświadczenia z psychozą zostaje ukryte w wynikach wyszukiwania lub wyłączone.

🔴 4. Reklamowe wykluczenie
Opis: Osoby chore psychicznie mogą być wykluczane z targetowania reklam lub widzieć wyłącznie treści związane z leczeniem, co zawęża ich cyfrowe doświadczenie.

Efekt dyskryminujący: Dehumanizacja i traktowanie ich wyłącznie jako pacjentów.

Przykład: Osoba z historią depresji dostaje reklamy leków, ale nie wydarzeń kulturalnych czy ofert pracy.

🔴 5. Nadużywanie algorytmów zapobiegających samobójstwom
Opis: AI próbuje wykrywać „sygnały ostrzegawcze” i automatycznie zgłasza użytkownika do służb lub blokuje konto.

Efekt dyskryminujący: Naruszenie prywatności, stygmatyzacja i stres wynikający z błędnego rozpoznania.

Przykład: Post o samopoczuciu psychicznym prowadzi do interwencji policji, mimo że użytkownik nie prosił o pomoc.

🔴 6. Brak reprezentacji w generowanych treściach
Opis: Generatywna AI (np. chatboty, wyszukiwarki AI) często opiera się na normatywnych wzorcach zdrowia psychicznego.

Efekt dyskryminujący: Osoby z diagnozami nie widzą siebie w wynikach, a ich doświadczenia są traktowane jako patologie.

Przykład: AI odpowiadająca, że osoba z schizofrenią „nie może prowadzić normalnego życia”.

🔴 7. Brak kontroli nad etykietami AI
Opis: Portale mogą przypisywać kontom „etykiety” (np. osoby narażone na kryzys), co wpływa na to, jak inni je widzą.

Efekt dyskryminujący: Użytkownicy nie mają świadomości, że są klasyfikowani na podstawie języka ich postów.

Podsumowanie
Choć niektóre z tych praktyk wynikają z chęci ochrony użytkowników, są one często oparte na uproszczonych modelach ryzyka, które nie uwzględniają indywidualnych kontekstów. W efekcie osoby chore psychicznie:

mają ograniczoną wolność wypowiedzi,

są niewidzialne w przestrzeni cyfrowej,

lub wręcz traktowane jako „niebezpieczne”.

Jeśli chcesz, mogę też przygotować wpis na bloga na ten temat lub pomóc z konkretnym przypadkiem, który Cię dotknął.
ODPOWIEDZ