Google проучва използването на инструменти за изкуствен интелект за писане на нови статии и е в процес на разговори с издатели за използването на инструменти, които да подпомагат журналистите. Това заяви късно вчера говорител на компанията, цитиран от Ройтерс и БТА.

Той не назовава издатели, но в. "Ню Йорк Таймс" съобщи, че Google е водил дискусии с "Вашингтон пост" и "Нюз корпорейшън" (News Corporation), собственика на "Уолстрийт джърнъл" и дори със самия "Ню Йорк таймс".

Тези инструменти за изкуствен интелект подпомагат журналисти с опции за заглавия и различни стилове на писане, за да "се повиши качеството на работата им и производителността", каза говорител на Google, добавяйки, че става дума за "ранни етапи на проучване на идеи".

"Тези инструменти просто не са предназначени и не могат да заменят съществената роля, която журналистите имат в предаването, създаването и проверката на фактите в статиите си", каза говорителят.

Въпреки това някои ръководни лица, пожелали анонимност, които са се запознали с презентацията на Google, я определят като обезпокоителна, информира в. "Ню Йорк таймс".

Инструментът за изкуствен интелект е наричан "Генезис" на вътрешно ниво в Google, според вестника, който се позовава на информирани източници.

Говорител на "Нюз корпорейшън" отказа да коментира публикацията на "Ню Йорк таймс" за инструмента за изкуствен интелект, но заяви: "Имаме отлични отношения с Google и оценяваме дългосрочния ангажимент на главния изпълнителен директор Сундар Пичай към журналистиката".

"Ню Йорк таймс" и "Вашингтон пост" не коментираха новината.

Тази информация се появява дни, след като Асошиейтед прес обяви, че ще си партнира с OpenAI, собственика на ChatGPT за проучването на използването на генеративния изкуствен интелект в новини. Това споразумение може да създаде прецедент за подобни партньорства.

Някои издания вече използват генеративен изкуствен интелект за съдържанието си, но новинарските публикации възприемат бавно технологията заради опасенията, че тя генерира фактически невярна информация и не може да отсее съдържание, създадено от хора и компютърни програми.