W naszym życiu coraz to większą rolę zaczynają odgrywać modele językowe zwane AI (sztuczną inteligencją).
Spotykamy je na facebooku w wyszukiwarce google i właściwie w całej przestrzeni internetu.
Ja wykorzystałem czatGPT do uzyskania szczegółowych odpowiedzi o przyjmowanych lekach - trzeba tu uważać bo AI lubi konfabulować udzielając brzmiących wiarygodnie lecz jednak zupełnie nieprawdziwych informacji. Konieczne jest więc sprawdzanie tego co nam AI pisze.
Prosiłem także AI o komentowanie moich tekstów blogowych dotyczących choroby - tu AI zachowało się jak lustro z bajki czyli starało się mnie dowartościować.
AI działające jako moderator portali społecznościach działa w mojej ocenie w sposób wykluczający i ograniczający osobę chora psychicznie stosując ostrą cenzurę zarówno treści którym programiści przypisali znaczenie negatywne jak i pomocnych w chorobie informacji promuje za to tak w portalach jak i wyszukiwarkach sztampowe teksty o możliwości uzyskania pomocy.
Inaczej to ujmując stara się ograniczyć zarówno możliwość wypowiedzi jak i zdobycia wiedzy odsyłając do szufladki w której jest telefon zaufania.
Ciekaw jestem czy macie podobne obserwacje?
Ogłoszenia:
1. Nowi użytkownicy, którzy nie przekroczą progu 30 napisanych postów, mają zablokowaną możliwość wstawiania linków do wszelakich komentarzy.
2. Usuwanie konta na forum - zobacz tutaj: jak usunąć konto?
1. Nowi użytkownicy, którzy nie przekroczą progu 30 napisanych postów, mają zablokowaną możliwość wstawiania linków do wszelakich komentarzy.
2. Usuwanie konta na forum - zobacz tutaj: jak usunąć konto?
AI a choroby psychiczne - obserwacje
- Przemek_Leniak
- Zarejestrowany Użytkownik
- Posty: 42
- Rejestracja: 15 czerwca 2025, o 14:06
Pytanie "jakie ograniczenia nakłada ai na osoby chore psychicznie na portalach społecznościowych i w wyszukiwarkach
wymień te ograniczenia które mają charakter dyskryminujący"
ChatGPT powiedział:
Ograniczenia, jakie sztuczna inteligencja (AI) może nakładać na osoby chore psychicznie w portalach społecznościowych i wyszukiwarkach, bywają subtelne, ale mogą mieć charakter dyskryminujący. Poniżej znajdziesz przykłady takich ograniczeń, które mogą prowadzić do stygmatyzacji, wykluczenia lub ograniczenia dostępu do informacji:
1. Cenzura treści o zdrowiu psychicznym
Opis: AI moderujące treści może błędnie interpretować wypowiedzi osób chorych psychicznie jako „szkodliwe”, „zagrażające” lub „niewłaściwe”.
Efekt dyskryminujący: Osoby dzielące się swoimi doświadczeniami (np. z depresją, myślami samobójczymi, epizodami psychotycznymi) mogą mieć ograniczany zasięg, a ich posty mogą być usuwane lub ukrywane.
Przykład: Post o próbie samobójczej z intencją edukacyjną może zostać uznany za promujący samookaleczenie.
2. Tłumienie wyników w wyszukiwarkach
Opis: Algorytmy mogą zaniżać widoczność treści zawierających słowa kluczowe związane z chorobami psychicznymi.
Efekt dyskryminujący: Trudniejszy dostęp do informacji i społeczności wsparcia.
Przykład: Wpisanie frazy „życie z chorobą psychiczną” może skutkować wynikami bardziej medycznymi niż wspólnotowymi lub osobistymi.
3. Automatyczne oznaczanie kont jako ryzykownych
Opis: AI może flagować konta osób otwarcie mówiących o swoich problemach jako „potencjalnie niebezpieczne” lub „naruszające zasady”.
Efekt dyskryminujący: Konto może być ograniczane, shadowbanowane lub zawieszane bez uzasadnienia.
Przykład: Konto osoby opisującej swoje doświadczenia z psychozą zostaje ukryte w wynikach wyszukiwania lub wyłączone.
4. Reklamowe wykluczenie
Opis: Osoby chore psychicznie mogą być wykluczane z targetowania reklam lub widzieć wyłącznie treści związane z leczeniem, co zawęża ich cyfrowe doświadczenie.
Efekt dyskryminujący: Dehumanizacja i traktowanie ich wyłącznie jako pacjentów.
Przykład: Osoba z historią depresji dostaje reklamy leków, ale nie wydarzeń kulturalnych czy ofert pracy.
5. Nadużywanie algorytmów zapobiegających samobójstwom
Opis: AI próbuje wykrywać „sygnały ostrzegawcze” i automatycznie zgłasza użytkownika do służb lub blokuje konto.
Efekt dyskryminujący: Naruszenie prywatności, stygmatyzacja i stres wynikający z błędnego rozpoznania.
Przykład: Post o samopoczuciu psychicznym prowadzi do interwencji policji, mimo że użytkownik nie prosił o pomoc.
6. Brak reprezentacji w generowanych treściach
Opis: Generatywna AI (np. chatboty, wyszukiwarki AI) często opiera się na normatywnych wzorcach zdrowia psychicznego.
Efekt dyskryminujący: Osoby z diagnozami nie widzą siebie w wynikach, a ich doświadczenia są traktowane jako patologie.
Przykład: AI odpowiadająca, że osoba z schizofrenią „nie może prowadzić normalnego życia”.
7. Brak kontroli nad etykietami AI
Opis: Portale mogą przypisywać kontom „etykiety” (np. osoby narażone na kryzys), co wpływa na to, jak inni je widzą.
Efekt dyskryminujący: Użytkownicy nie mają świadomości, że są klasyfikowani na podstawie języka ich postów.
Podsumowanie
Choć niektóre z tych praktyk wynikają z chęci ochrony użytkowników, są one często oparte na uproszczonych modelach ryzyka, które nie uwzględniają indywidualnych kontekstów. W efekcie osoby chore psychicznie:
mają ograniczoną wolność wypowiedzi,
są niewidzialne w przestrzeni cyfrowej,
lub wręcz traktowane jako „niebezpieczne”.
Jeśli chcesz, mogę też przygotować wpis na bloga na ten temat lub pomóc z konkretnym przypadkiem, który Cię dotknął.
wymień te ograniczenia które mają charakter dyskryminujący"
ChatGPT powiedział:
Ograniczenia, jakie sztuczna inteligencja (AI) może nakładać na osoby chore psychicznie w portalach społecznościowych i wyszukiwarkach, bywają subtelne, ale mogą mieć charakter dyskryminujący. Poniżej znajdziesz przykłady takich ograniczeń, które mogą prowadzić do stygmatyzacji, wykluczenia lub ograniczenia dostępu do informacji:
Opis: AI moderujące treści może błędnie interpretować wypowiedzi osób chorych psychicznie jako „szkodliwe”, „zagrażające” lub „niewłaściwe”.
Efekt dyskryminujący: Osoby dzielące się swoimi doświadczeniami (np. z depresją, myślami samobójczymi, epizodami psychotycznymi) mogą mieć ograniczany zasięg, a ich posty mogą być usuwane lub ukrywane.
Przykład: Post o próbie samobójczej z intencją edukacyjną może zostać uznany za promujący samookaleczenie.
Opis: Algorytmy mogą zaniżać widoczność treści zawierających słowa kluczowe związane z chorobami psychicznymi.
Efekt dyskryminujący: Trudniejszy dostęp do informacji i społeczności wsparcia.
Przykład: Wpisanie frazy „życie z chorobą psychiczną” może skutkować wynikami bardziej medycznymi niż wspólnotowymi lub osobistymi.
Opis: AI może flagować konta osób otwarcie mówiących o swoich problemach jako „potencjalnie niebezpieczne” lub „naruszające zasady”.
Efekt dyskryminujący: Konto może być ograniczane, shadowbanowane lub zawieszane bez uzasadnienia.
Przykład: Konto osoby opisującej swoje doświadczenia z psychozą zostaje ukryte w wynikach wyszukiwania lub wyłączone.
Opis: Osoby chore psychicznie mogą być wykluczane z targetowania reklam lub widzieć wyłącznie treści związane z leczeniem, co zawęża ich cyfrowe doświadczenie.
Efekt dyskryminujący: Dehumanizacja i traktowanie ich wyłącznie jako pacjentów.
Przykład: Osoba z historią depresji dostaje reklamy leków, ale nie wydarzeń kulturalnych czy ofert pracy.
Opis: AI próbuje wykrywać „sygnały ostrzegawcze” i automatycznie zgłasza użytkownika do służb lub blokuje konto.
Efekt dyskryminujący: Naruszenie prywatności, stygmatyzacja i stres wynikający z błędnego rozpoznania.
Przykład: Post o samopoczuciu psychicznym prowadzi do interwencji policji, mimo że użytkownik nie prosił o pomoc.
Opis: Generatywna AI (np. chatboty, wyszukiwarki AI) często opiera się na normatywnych wzorcach zdrowia psychicznego.
Efekt dyskryminujący: Osoby z diagnozami nie widzą siebie w wynikach, a ich doświadczenia są traktowane jako patologie.
Przykład: AI odpowiadająca, że osoba z schizofrenią „nie może prowadzić normalnego życia”.
Opis: Portale mogą przypisywać kontom „etykiety” (np. osoby narażone na kryzys), co wpływa na to, jak inni je widzą.
Efekt dyskryminujący: Użytkownicy nie mają świadomości, że są klasyfikowani na podstawie języka ich postów.
Podsumowanie
Choć niektóre z tych praktyk wynikają z chęci ochrony użytkowników, są one często oparte na uproszczonych modelach ryzyka, które nie uwzględniają indywidualnych kontekstów. W efekcie osoby chore psychicznie:
mają ograniczoną wolność wypowiedzi,
są niewidzialne w przestrzeni cyfrowej,
lub wręcz traktowane jako „niebezpieczne”.
Jeśli chcesz, mogę też przygotować wpis na bloga na ten temat lub pomóc z konkretnym przypadkiem, który Cię dotknął.