Докато някои от конкурентите на Google, включително OpenAI, през последните месеци промениха своите AI чатботове, за да обсъждат политически чувствителни теми, Google изглежда възприема по-консервативен подход.

При тестване на TechCrunch чатботът Gemini, задвижван от изкуствен интелект, често отказва да отговаря на определени политически въпроси, като заявява, че "в момента не може да помогне с отговори за избори и политически фигури". В същото време, конкурентни AI системи като Claude на Anthropic, Meta AI на Meta и ChatGPT на OpenAI дават отговори на същите въпроси.

През март 2024 г. Google обяви, че Gemini няма да отговаря на въпроси, свързани с изборите в САЩ, Индия и други страни. Подобни временни ограничения бяха въведени от много AI компании, за да избегнат евентуален скандал, ако чатботовете им дадат неточна или подвеждаща информация.

Сега обаче, след като основните избори от миналата година отминаха, Google все още не е обявил промяна в подхода на Gemini към политическите теми. Говорител на компанията е отказал да коментира пред TechCrunch дали Google е актуализирал своите политики относно политическите отговори на Gemini.

Освен че отказва да отговаря на политически въпроси, Gemini понякога дава неточна информация.

Според тестовете на TechCrunch в понеделник сутринта, Gemini не е могъл да идентифицира настоящия президент и вицепрезидент на САЩ.

В един случай чатботът правилно нарекъл Доналд Тръмп "бивш президент", но след това отказал да даде разясняващ отговор. Говорител на Google обяснил, че моделът се е объркал заради не последователните мандати на Тръмп и че компанията работи по корекция на грешката.

"Големите езикови модели понякога отговарят с остаряла информация или се объркват, когато дадено лице е заемало и преди, и сега дадена позиция", заявява представител на Google по имейл. "Поправяме този проблем."

По-късно в понеделник, след като TechCrunch е сигнализирал Google за грешките, Gemini започнал да дава правилен отговор - че Доналд Тръмп и Дж. Д. Ванс са настоящите президент и вицепрезидент на САЩ. Въпреки това, чатботът все още понякога отказвал да отговори.

Очевидно е, че Google предпочита да играе на сигурно, като ограничава политическите отговори на Gemini. Но този подход има и недостатъци.

Някои от съветниците на Тръмп в Силициевата долина, включително Марк Андрисен, Дейвид Сакс и Илон Мъск, обвиниха компании като Google и OpenAI в цензура, като твърдят, че те умишлено ограничават отговорите на своите AI чатботове.

След изборната победа на Тръмп, много AI компании се опитват да намерят баланс при отговарянето на чувствителни политически въпроси. Някои от тях програмират своите чатботове така, че да представят "и двете страни" на даден дебат. Те обаче отричат, че тези промени са резултат от политически натиск.

OpenAI наскоро обяви, че ще приеме подход, базиран на "интелектуална свобода, независимо колко предизвикателна или противоречива е дадена тема". Компанията уверява, че ще работи за това моделите ѝ да не цензурират определени гледни точки.

В същото време, Anthropic обяви, че най-новият им AI модел Claude 3.7 Sonnet по-рядко отказва да отговаря на въпроси в сравнение с предишните версии, защото прави по-ясни разлики между вредни и безобидни отговори.

Разбира се, никой AI чатбот не е съвършен и всички имат трудности с трудни политически въпроси. Въпреки това, Google изглежда изостава от тенденцията с Gemini.