Изкуственият интелект е впечатляваща иновация, която вече активно присъства в ежедневието ни. Десетки милиони потребители използват активно платформи като ChatGPT. Разработката на мащабни AI модели, които се обучават от огромни масиви с данни ще продължи да генерира инвестиции от милиарди долари.
Някои експерти вече обръщат внимание на рисковете, които крие технологията. Вече ви информирахме, че Илон Мъск призова да се забави развитието на AI чатботовете. Независимо от призивите за регулации можем да очакваме още повече компании да започнат да създават конкуренти на ChatGPT.
Всичко това ще допринесе за създаването на още по-добри онлайн услуги за търсене на информация, но и създаване на съдържание. Нарастващият интерес към изкуствения интелект провокира любопитен проект на учени от University of Surrey. Съвместните усилия на екипа водят до разработката на софтуер, който проверява точно до каква информация имат достъп AI системите.
Програмата може да се превърне в интегрална част от протокола за онлайн сигурност на компаниите от частния сектор. По този начин потребителите ще могат да разберат дали чатботовете са научили твърде много или има достъп до чувствителни данни, съобщава ТеchXplore.
Важна функционалност е опцията да се идентифицира дали AI се научава да открива и използва в своя полза пропуски в софтуерния код. Това е доста полезно, тъй като в редица случаи AI системите си взаимодействат в реално време с екипи от специалисти.