Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
НовиниПрепоръчани

За кого би гласувал AI?

Йозеф Филко

ИИ и демокрацията: Когато идеите престанат да се конкурират свободно

Демокрацията се основава на предположението, че идеите се конкурират свободно. В дигиталната епоха обаче това предположение вече не важи. Не всички гледни точки имат еднаква видимост или влияние. Нов актьор навлезе в публичния дискурс — изкуственият интелект. Той отговаря на въпросите ни, но тихо оформя начина, по който ги задаваме. Фино определя какво се счита за нормално, приемливо или дори мислимо.

Езикови модели като ChatGPT, Claude или Gemini се превърнаха в доминиращия интерфейс, чрез който милиони хора сега възприемат света. Въпреки че се представят като неутрални инструменти, все повече изследвания сочат обратното. Техните отговори последователно отразяват определена ценностна рамка. Това не е дребен технически детайл; това е интервенция, която засяга основите на общественото съзнание.

Учителят без име

Представете си учител, чийто глас достига до стотици милиони хора всеки ден. Този учител обяснява историята, коментира политиката, предлага етични насоки и дори съветва за семейния живот. Той никога не се уморява, никога не отказва да отговори и никога не се съмнява в себе си. Има само един проблем: светогледът му е поразително еднообразен.

Днес този учител не е човек. Това е изкуствен интелект. Системи като ChatGPT, Claude и Gemini са заменили:

  • търсачките;

  • енциклопедиите;

  • човешките разговори.

Те генерират аргументи, формулират мнения и представят заключения, като създават впечатлението, че просто предават информация. В действителност те активно я оформят. Изследвания, публикувани в водещи научни списания, показват, че повечето съвременни езикови модели споделят сходни идеологически наклонности:

Икономически те обикновено предпочитат леви позиции; културно те се накланят към либерални и прогресивни ценности. Когато се тестват с утвърдени политически научни инструменти, огромното мнозинство се групират в един и същи идеологически квадрант.

Светове, които не съществуват

Големите езикови модели притежават силно и съблазнително качество: звучат разумно. Тонът им е спокоен, уверен и авторитетен. Това създава впечатление за справедливост и баланс. Но именно тук започва проблемът. Тестовете по политически науки, приложени към повече от две дузини водещи езикови модели, показват последователен модел. Почти всички те се сближават с ляво-либерален светоглед.

Тези резултати не са взети от неясни източници. През 2024 г. изследователят Дейвид Розадо публикува най-обширното изследване досега за политическата ориентация на езиковите модели в PLOS One. Използвайки единадесет утвърдени политически теста и анализирайки десетки модели, той установи, че средната система попада изцяло в ляво-либералната част на спектъра. Само малцина се доближават до идеологическия баланс.

Това не е абстрактен проблем. Експерименти, проведени в Германия, сравниха отговорите на чатботовете с партийни профили, използвайки инструменти като Wahl-O-Mat (онлайн приложение за съвети за гласуване):

  • Моделите съвпадаха много по-близо до позициите на зелените либерали.

  • Те се различаваха значително от позициите на консервативните партии.

  • Налице е голямо разминаване с политическото разпределение на реалното население.

Накратко, тези системи не отразяват обществото такова, каквото е. Те отразяват обществото, филтрирано през тясна призма на ценностите.

Как стойностите влизат в машината

Изкуственият интелект често се представя като система, която просто «учи от интернет». Това е подвеждащо. Всеки отговор, генериран от езиков модел, се оформя от човешки решения, взети на няколко етапа от неговото развитие:

  • Предварително обучение: Моделите се обучават на данни от англоезичния интернет (Уикипедия, Reddit, текстови архиви), което представлява културно специфичен участък от реалността.

  • Фина настройка: Човешки анотатори оценяват кои отговори са подходящи или етични, правейки нормативни преценки.

  • Механизми за безопасност: Разработчиците прилагат правила за предотвратяване на «вредни» резултати, които често кодират прогресивни позиции като стандартни.

Резултатът е система, която говори с авторитета на неутралитета, като същевременно насърчава определена морална и политическа визия.

Инцидент или дизайн?

Дали този идеологически модел е неизбежно следствие от данните, или резултат от умишлени избори? Доказателствата сочат, че е и двете, но решаващите промени се случват по време на подравняването. Изследвания от MIT и Brown University показват, че целенасочените корекции могат значително да променят политическата ориентация на модела.

Изследването «Скрити убедители» установява, че взаимодействието с езикови модели може измеримо да промени политическите предпочитания на потребителите. Пристрастието не е случайност — то е регулируемо.

Многоезичното не е мултикултурно

Съвместните AI системи говорят десетки езици, но лингвистичната компетентност не предполага културно разбиране. Когато тези модели разглеждат въпроси за семейството, религията или националния суверенитет, те го правят чрез англо-американска рамка. Проучване от 2024 г. в PNAS Nexus тества GPT-4o в 107 държави и установява:

  • Стойностните отговори най-силно съвпадат с тези в Северна и Западна Европа.

  • Изкуственият интелект хомогенизира културното множествество, вместо да го запазва.

  • Студентите, използващи ИИ, постепенно възприемат западни стилове на мислене.

Експериментите, представени на ACL 2025, показват, че политическите нагласи се променят след взаимодействие с моделите. Авторитетът, приписван на тези системи, намалява критичната дистанция и насърчава «епистемична зависимост».

Къде са консервативните алтернативи?

От техническа гледна точка идеологическото разнообразие е възможно. Липсата на консервативни системи не е въпрос на осъществимост, а на стимули. Развитието на ИИ е доминирано от малък брой фирми от Силициевата долина, чиито ориентации подкрепят прогресивен консенсус. За справяне с проблема са необходими няколко стъпки:

  1. Признание, че изкуственият интелект не е неутрален.

  2. Разработване на алтернативни модели, отразяващи различни традиции.

  3. Сериозно прилагане на регулации за прозрачност и оценка на пристрастията.

Демокрацията зависи от свободната конкуренция на идеи. Ако изкуственият интелект трябва да служи на обществата, той трябва да направи място за истински плурализъм, а не просто да го симулира.

The European Conservative

Подобни публикации

Back to top button