⇡#Больше кнопок!
В блоге Windows Experience сообщили о появлении в 2024 г. на клавиатурах ПК (прежде всего ноутбуков) с предустановленными ОС этого семейства новой аппаратной клавиши, единственной функцией которой будет активация ИИ-помощника Copilot — для версий 10 и 11. Располагать новинку станут, скорее всего, по правую сторону от «пробела». Это первое сколько-нибудь существенное изменение рекомендованной раскладки Windows-клавиатур с 1994 года, когда в оборот была введена искренне ненавидимая геймерами клавиша — собственно «Windows» (раздражает же она тем, что случайное нажатие на неё в процессе игры приводит к принудительному переключению на «Рабочий стол» с выводом системного меню). На старомодных отныне клавиатурах вызов Copilot будет производиться одновременным нажатием «Windows» и «C». Если же ИИ-помощник на ПК под управлением ОС Microsoft с передовой клавиатурой по какой-то причине не установлен, то нажатие на выделенную клавишу «Copilot» с логотипом соответствующей службы приведёт по умолчанию к запуску Windows Search. Остаётся надеяться, что поставщики ноутбуков и отдельных клавиатур для ПК предусмотрят программные средства для блокировки случайных нажатий и на эту клавишу — на манер уже практически общепринятой комбинации «Fn» + «Windows».
⇡#Найти и разъяснить
Создание «объясняемого ИИ», логика которого была бы постижима для обращающихся к нему биологических операторов, — задача достаточно сложная; отсутствие надёжного и эффективного её решения в значительной мере препятствует допуску искусственного интеллекта к управлению критически важными процессами и узлами в реальном секторе экономики («Но это вас всё равно не спасёт, кожаные мешки, муа-ха-ха-ха!» — Р. Бендер, возможно). Группа исследователей из Массачусетского технологического института предложила задействовать внешний ИИ-агент, чтобы объяснять внутреннюю логику производимых исследуемым ИИ — да и, в принципе, любой сложной нейросетью — операций. Речь идёт об «автоматизированном агенте-интерпретаторе» (automated interpretability agent, AIA), выполняющем работу живого исследователя, а именно — формулирование гипотез о логике действий обученной нейросети, планирование экспериментов для проверки этих гипотез, проведение тестов и финальное подтверждение либо опровержение исходных догадок. Как и полагается учёному, AIA опирается в своих изысканиях на несколько упрощённую, но реалистичную модель исследуемого объекта — разработанный специально для этой цели тестовый фреймворк FIND (function interpretation and description), синтетические нейроны которого эмулируют поведение аналогичных структур в изучаемой нейросети. В настоящее время исследователи из MIT работают над совершенствованием AIA с целью повысить качество интерпретации нетипичного или трудно предсказуемого поведения нейросетей — того самого, опасения насчёт которого в основном и препятствуют более широкому повсеместному внедрению ИИ-инструментов.
⇡#Мышь не проскочит
Швейцарский стартап Flappie продемонстрировал на выставке CES 2024 умную врезную дверцу для домашних питомцев, способную не только пропускать в дом строго определённых кошек или собак, считывая данные с вживлённых им под кожу микрочипов, но и контролировать, что животные несут. Многие коты-мышеловы (да и отдельные собаки пород, специально выведенных для охоты на грызунов) время от времени предъявляют хозяевам непосредственные свидетельства своей полезности, притаскивая домой честно пойманную добычу. Оборудованная датчиком движения и камерой ночного видения дверца определяет, тащит ли возвращающийся домой питомец в пасти грызуна, — и если да, то отказывается впускать удачливого охотника. Разработчики утверждают, что собиравшийся годами «уникальный набор данных», на котором обучена встроенная в устройство система, позволяет отождествлять нежелательную для хозяина питомца ношу с достоверностью более 90%.
⇡#Вы, наверное, шутите?
Одна из серьёзнейших загвоздок, не позволяющих ИИ-ботам полноценно вести «подлинно человеческие» диалоги с живыми людьми, — крайне слабый уровень понимания большими языковыми моделями юмора, сарказма, метафор и иных непрямых способов выражения мыслей, которыми биологические носители разума в большей или меньшей степени уверенно овладевают уже в довольно раннем возрасте. Российские исследователи с факультета компьютерных наук НИУ ВШЭ в ходе серии экспериментов выяснили, насколько хорошо актуальные нейросетевые модели справляются с распознаванием юмора в различных его проявлениях. В частности, оказалось, что особенно преуспевают в этом плане сравнительно скромные нейросети, натренированные на наборах из небольших разнохарактерных текстовых фрагментов. Вероятно, в малом объёме текста, помеченном человеком как «смешной», нейросетевой структуре проще оказывается уловить тонкую материю юмора, чем в пространном наборе слов.
⇡#ИИ как средство от цифрового неравенства
Посетивший Международный экономический форум в Давосе Билл Гейтс (Bill Gates) заявил в интервью CNN, что развитие ИИ в ближайшие пять лет окажется не менее всеохватным и ошеломляющим по своим последствиям, чем машинная революция в сельском хозяйстве в начале XX века, благодаря которой впервые по всему миру (а не только в наиболее развитых странах) миллионы бывших крестьян начали перебираться в города, осваивая немыслимые прежде для себя профессии. ИИ, уверил сооснователь Microsoft, принесёт человечеству ощутимую пользу уже на этом сравнительно недолгом временнóм отрезке, поскольку сможет подавать высокоперсонифицированные и весьма дельные советы по множеству направлений — от написания программного кода и освоения новых профессий до укрепления личного здоровья. При этом, утверждает Гейтс, доступ к столь выгодным в плане повышения общего уровня жизни сервисам окажется практически равно доступным для населения всех стран, где в принципе имеется выход в Интернет, — ведь для консультаций с облачными ИИ не требуется никакой специальной техники, помимо самого обычного ПК или смартфона. Международный валютный фонд, впрочем, не согласен со столь оптимистичным прогнозом и предрекает лишь углубление цифрового неравенства вследствие широкого внедрения ИИ, — но определить, какое из этих предсказаний ближе к реальности, возможно будет уже совсем скоро.
⇡#Закат соцсетей роботами вручную
Эндрю Голис (Andrew Golis), директор по контенту Нью-йоркской общественной радиостанции (New York Public Radio), в достаточно эмоциональной заметке для проекта The Nieman Journalism Lab описал, как уже в ближайшем будущем сгенерированный ИИ контент безудержно заполонит соцсети и традиционные цифровые медиа. В результате стремящиеся сохранить хоть какое-то подобие объективного взгляда на происходящее люди вернутся во времена крайне ограниченных по численности веб-сообществ, наполнение для которых будут создавать независимые — точнее, спонсируемые самими же участниками этих сообществ — журналисты. При этом главная причина скорого охлаждения масс к соцсетям, по мнению эксперта, — даже не столько множащиеся дипфейки, сколько ИИ-алгоритмы оптимизации контента, которые скармливают участникам этих систем наиболее подходящие (на основе нейросетевого анализа их постов, лайков, истории веб-сёрфинга и пр.) сообщения. В результате полностью отвечающая интересам и ожиданиям человека новостная лента постепенно превращается для него в умиротворяющий, но совершенно неувлекательный белый шум, — и потому отказаться от её регулярного просмотра выходит куда проще, чем того хотелось бы владельцам соцсетей.
⇡#Большая снегоочистительная модель
С января наступившего года качество уборки улиц в подмосковных городах и посёлках частично контролирует искусственный интеллект — на основе непрерывного анализа данных с почти 6 тыс. камер наблюдения системы «Безопасный регион». Просмотр кадров нейросетевой моделью производится дважды в сутки, и если система фиксирует несоответствие состояния улиц нормативным требованиям, то направляет сигнал об этом (вместе с данными о месте установки камеры, муниципалитете, дате и времени нарушения) в администрацию городского округа или управляющую компанию.
⇡#ИИ задвинул в тень Web3
Бушевавший ещё в 2022-м ажиотаж вокруг Web3 (зонтичный термин, охватывающий все технологии децентрализованных цифровых коммуникаций — на основе и с участием блокчейна, смарт-контрактов, NFT и пр.) в прошлом году, похоже, пошёл на спад. Издание Inc. приводит сухую статистику: по данным Crunchbase, за 2023 г. Web3-стартапы собрали по всему миру 7,3 млрд долл. США (тогда как в 2022-м — 21,5 млрд), а вот глобальные инвестиции в ИИ-сектор, согласно оценке Dealroom, достигли 17,8 млрд долл. Эксперты указывают, что Web3 при всех её теоретических достоинствах так и не смогла предложить ни единого по-настоящему привлекательного для массовых пользователей приложения — особенно с учётом до сих пор переживаемой многими после ковидных карантинов усталости от чисто цифровых коммуникаций (т. н. Zoom fatique). В то же время современный широкодоступный ИИ с его чат-ботами, генераторами картинок, аудио и видео нередко завораживает даже тех, кто искренне его критикует.
⇡#Велеречивое ИИ-празднословие
Использовать генеративный ИИ для обнаружения ошибок в программном коде начали достаточно давно — и это одно из тех его приложений, которые считают безусловно полезными практически все эксперты. Однако в начале января Даниэл Стенберг (Daniel Stenberg), основатель и один из ведущих разработчиков популярнейшего проекта с открытым кодом culr/libcurl, указал в своём блоге на крайне досадную особенность баг-репортов, сгенерированных ИИ: чем более пространно, детализированно и внятно изложено сообщение об ошибке, тем сложнее оказывается верифицирующему его человеку докопаться до сути обнаруженной проблемы, воспроизвести и локализовать её. По словам Стенберга, ИИ — в частности, Google Bard, с которым экспериментировал исследователь, — производит высококачественную, на вид убедительную, но всё-таки ерунду: «(Прекрасный по форме) паршивый отчёт вообще не помогает проекту: из-за него время и энергия разработчиков бессмысленно растрачиваются; он оказывается наполнен типичными галлюцинациями в ИИ-стиле — бессмысленным смешением фактов и деталей из прежних баг-репортов, которое тужится предстать чем-то новым, но никакой связи с реальностью не имеет». При этом эксперт вовсе не призывает отказаться от использования ИИ для выявления ошибок в коде — он лишь настоятельно призывает программистов не полагаться на «умного» помощника безоглядно.
⇡#Педиатр на 17%
Опубликованное изданием JAMA Pediatrics исследование свидетельствует, что ChatGPT в роли диагноста детских заболеваний на нынешнем этапе своего развития практически непригоден — поскольку в 83% случаев приходит к неверным заключениям (и, соответственно, только в 17% его диагнозы подтверждаются практикой). Более того, среди 83% ошибочных диагнозов лишь 53% хотя бы указывали корректно на тот орган или систему, которая у маленького пациента на деле дала сбой. Безусловно, эксперименты такого рода требуют особого внимания к тому, каким образом составляются подсказки, но в данном случае описанием симптомов для ChatGPT занимались профессиональные детские терапевты. Что, в свою очередь, может сигнализировать о необходимости привлечения узких специалистов для составления более корректных и полных массивов входных данных, на которых обучается генеративная модель.
⇡#ИИнфлюэнсер — это звучит круто
Социальные сети, количество постов в которых, по данным Morning Consult, и без того неуклонно сокращается, постигла новая напасть, а именно — созданные генеративным ИИ инфлюэнсеры. По свидетельству Financial Times, традиционно активные в соцсетях крупные бренды — в пример приводятся Olaplex и Victoria’s Secret — всё чаще заказывают рекламный контент не живым, а именно виртуальным промоперсонам, чьи учётные записи уверенно набирают популярность. Оборот такого контента в глобальных соцсетях за прошлый год оценивается в 21 млрд долл., и при ставке около 1 тыс. долл. за маркетинговое сообщение (от крупной торговой марки, конечно, — есть и куда более низкие расценки) ИИ-персонаж однозначно выигрывает у биологических конкурентов как по части готовности выдавать на-гора запрошенный контент в любое время дня и ночи, так и по полноте соответствия создаваемых им постов запросам рекламодателя. Так, анализ активности виртуального инфлюэнсера Kuki по продвижению бренда H&M показал, что его сообщения просмотрели в 11 раз больше пользователей, чем традиционную рекламу. И всё это вопреки (а может, как раз благодаря?) тому, что многие завсегдатаи соцсетей отзываются о сгенерированных ИИ лидерах мнений как о «фальшивках» или «пустышках».
⇡#Где же вы, умные роботы?
Впечатляющие успехи больших языковых моделей в деле создания текстов, программного кода, музыки, статических картинок и видео естественным образом должны были бы дополняться не менее бурным развитием умной робототехники: всего-то ведь надо соединить систему уровня ChatGPT хотя бы с многоосевым манипулятором! Не тут-то было: оказывается, создание роботов, которые чистили бы картошку, стригли газоны или аккуратно складывали бы выстиранное и высушенное бельё с той же точностью и лёгкостью, с которой чат-боты выискивают ошибки в программном коде или рисуют котиков в смешных шляпах, представляет собой чрезвычайно нерядовую задачу. Всё объясняется просто: научить большую языковую модель эффективно управлять сложным электромеханическим конструктом вполне реально — если скормить ей изрядный массив соответствующих данных. Которого, как нетрудно догадаться, в открытых источниках попросту нет, — и который не так-то просто наработать. В январе 2024 г. как раз и было широко объявлено о проекте RT-X по созданию «робота-эрудита» (generalist robot), объединившем 32 лаборатории соответствующей направленности — из Google, Университета Калифорнии в Беркли, других американских центров, а также из ряда стран Европы и Азии. Накопленный проектом набор данных уже содержит информацию о миллионах испытаний 22 различных типов роботов, включая наиболее распространённые промышленные манипуляторы, охватывающую около 500 различных действий (подхватывание объектов, их вращение, перенос с места на место и пр.) в приложении к тысячам различных по габаритам и массе образцов. Цель исследователей — создать генеративную модель для «рассуждающего» (reasoning) робота, который окажется способен выполнять формулируемые на естественном языке задачи вроде «помести яблоко между апельсином и консервной банкой» или «нажми ближнюю к себе кнопку» — на вид совершенно тривиальные, но для нынешних «умных» автономных машин разрешимые с огромным трудом.
⇡#Убедительная мультимодальность
В своём январском подкасте Билл Гейтс (Bill Gates) проинтервьюировал не кого-нибудь, а Сэма Альтмана (Sam Atlman), главу OpenAI, всего-то месяц назад сперва снятого со своего поста решением совета директоров, а спустя всего несколько дней чудесным образом — и при яростной интернет-поддержке миллионов энтузиастов ChatGPT — вернувшегося обратно. Беседа была посвящена будущему ИИ, которое, по мнению Альтмана, в ближайшие пару лет станет определяться мультимодальными моделями, с равной лёгкостью оперирующими распознаванием речи и синтезом голоса, текстовыми блоками, статичными изображениями, музыкой и видео. Главное же, чего необходимо добиться разработчикам генеративных моделей в этом интервале, — достоверная, хорошо воспроизводимая надёжность (reliability): «Если вы зададите GPT-4 один и тот же вопрос десять тысяч раз, один из её ответов наверняка окажется по-настоящему удачным. Но сама система этого оценить пока не может, — только спрашивающий её человек. Надо добиваться того, чтобы на единожды заданный вопрос генеративная модель всегда отвечала заведомо лучшим — с человеческой точки зрения — образом из десяти тысяч возможных». Сэм Альтман заявил также, что ИИ-революция, несомненно, будет «самым стремительным из всех технологических рывков во всей предшествующей истории человечества» и что обществу придётся оперативно приноравливаться к темпу грядущих перемен — в том числе за счёт бурного развития робототехники как связующего звена между машинным разумом и вещным миром.
⇡#GPT-товар с привлекательным лицом
Открывшийся в середине января GPT Store, где заказчикам предлагаются в основном кастомизированные (дотренированные на специфических наборах данных) версии ChatGPT, моментально столкнулся с нарушением пользователями установленных OpenAI правил. Компания запретила размещать на своей торговой площадке чат-ботов, «поощряющих романтические отношения либо осуществляющих активность, подлежащую регулированию в рамках закона», — или, если выражаться менее вычурно, генеративных собеседников для взрослых. Тем не менее практически сразу же в топе предложений GPT Store оказались боты с говорящими наименованиями «Korean Girlfriend», «Virtual Sweetheart», «Your girlfriend Scarlett», «Your AI girlfriend Tsu» и т. п. Причём дело, как утверждают эксперты, не столько в низких моральных стандартах энтузиастов генеративных моделей, сколько во вполне реальной проблеме острой нехватки доверительных коммуникаций между самими людьми. В США, согласно свежей статистике, каждый второй взрослый ощущает себя одиноким, а глубокие социальные связи в век торжества цифровых соцсетей ослаблены, как никогда прежде, — так что беседами с генеративными моделями посетители GPT Store стремятся, похоже, восполнить нехватку живого и откровенного (далеко не в одном только сексуальном смысле) человеческого общения.
⇡#Продающие боты
В описаниях товаров на Amazon немаловажное место занимают пользовательские отзывы: нередко новые покупатели делают свой выбор, опираясь на опыт тех, кто уже лично ознакомился с тем или иным продуктом. Однако в начале 2024-го крупнейший онлайновый магазин планеты всё чаще стал предлагать отзывы, «сгенерированные ИИ на основе мнений клиентов», — как свидетельствует неприметная сноска рядом с некоторыми из них. По счастливой случайности, подавляющее большинство созданных генеративным ИИ откликов — сугубо положительные, с рейтингами 4-5 звёзд. Впрочем, базируются они не на маркетинговых описаниях товаров, а в самом деле на вполне реальных замечаниях покупателей — и представляют собой эффективную выжимку наиболее содержательных моментов из сотен, а то и тысяч реплик, оставленных пользователями Amazon на страничках популярных товаров. Поскольку далеко не каждый биологический потребитель способен внятно и чётко формулировать свои мысли, а выявлять закономерности в массивах слабоструктурированных данных ИИ умеет как раз наилучшим образом, изучившие ситуацию эксперты The Washington Post с некоторым даже изумлением отметили полезность и высокую информативность генерируемых ботами обзоров.
⇡#ИИ-ПК для рывка
Неплохая динамика мирового рынка персональных компьютеров в IV кв. 2023 г. воодушевляет аналитиков, предрекающих возврат его к росту после долгих кварталов последовательного спада, — во многом за счёт увеличения интереса как частных потребителей, так и корпоративных заказчиков к так называемым ИИ-ПК (AI-enabled PC, или просто AI-PC). Персональные системы, готовые к локальному запуску и исполнению генеративных моделей, были во множестве представлены в залах лас-вегасской выставки CES 2024 — и вендоры ПК надеются, что спрос на такого рода компьютеры по итогам текущего года окажется весьма внушительным. Помимо x86-систем с мощными дискретными видеокартами, в категорию ИИ-ПК попадают заметно более экономичные решения, базирующиеся на системах-на-кристалле архитектуры ARM, — на манер макбуков с собственными чипами разработки Apple. После ожидаемого в середине 2024 г. начала серийного выпуска микросхем Snapdragon X Elite, которые наверняка лягут в основу целого ряда ARM-ноутбуков под управлением ОС Windows, ИИ-ПК действительно обещают стать гораздо доступнее для широкого круга потребителей и заказчиков.
⇡#Ничто человеческое боту не чуждо
В начале 2024-го пользователи ChatGPT — в особенности платные, наиболее ревностно оценивающие качество его работы, — стали всё чаще подмечать, что бот словно бы устал и обленился. В том смысле, что в ответ на некоторые запросы он теперь не выполняет задачу целиком (начинает, к примеру, писать некий текст по пользовательской заявке, но на полпути замирает, и приходится его подгонять), или просто игнорирует отданную команду, или даже прямо советует человеку самостоятельно произвести необходимые изыскания в Интернете. Официальные представители OpenAI на эти жалобы отвечают, что система не обновлялась с начала ноября 2023 г. и что причину, по которой генеративный ИИ поддаётся спорадической лени, установить пока невозможно. «Мы работаем над этим», — рапортуют исследователи, отметая пока что как технически необоснованное предположение о том, будто бот, воспринимаемый многими как вполне сознательный собеседник, попросту усвоил одну из имманентно присущих биологическому разуму черт — стремление оптимизировать энергозатраты.
⇡#Так кто тут дешёвая рабочая сила?
«Роботы оставят нас без работы!» — возмущались не так давно голливудские сценаристы, организуя свою забастовку. Однако на деле, как показало проведённое в Массачусетском технологическом институте исследование, основную массу выполняемых людьми задач пока что попросту экономически невыгодно перекладывать на виртуальные плечи генеративных моделей. Авторы рассмотрели широкий спектр работ, к которым ИИ (прежде всего с использованием систем машинного зрения) может быть привлечён уже сегодня без существенных изменений соответствующих бизнес-процессов, — от обучения детей в школах до оценки недвижимости. Оказалось, что лишь в 23% случаев затраты на содержание живого персонала, исполняющего эти задачи на некоем базовом ожидаемом уровне, выходят ниже, чем расходы на замену людей компьютерными системами (включая расходы на их развёртывание и обслуживание, — это ещё без учёта инвестиций в дотренировку генеративных моделей общего назначения ради оптимизации работы на данном конкретном участке). Да, в розничной торговле, на транспорте и в складском деле за счёт необходимости решать огромное число сравнительно простых, поддающихся эффективному контролю задач, ИИ оказывается в целом предпочтительнее биологических работников. Но для адекватной замены человека в более творческих — точнее, существенно более разнообразных по условиям и ожидаемым решениям — задачах разработчикам искусственного интеллекта придётся ещё приложить немало усилий.
⇡#Чип, который всегда с тобой
Первый коммерческий продукт компании Neuralink будет, судя по всему, носить название Telepathy — и предсерийный прототип этого беспроводного интерфейса между мозгом и компьютером (brain-computer interface, BCI) уже, как сообщил Илон Маск (Elon Musk), вживлён в мозг первых добровольцев. Физически интерфейс реализован в виде пучка нитевидных электродов числом до полутора тысяч, присоединённых к базовой капсуле с модулем Bluetooth, и даёт носителю возможность управлять совместимыми с этим беспроводным протоколом гаджетами простым усилием мысли. Сама капсула размещается за ухом пользователя, а электроды внедряются непосредственно в мозговую ткань — с применением, кстати, робота-хирурга. Первыми носителями Telepathy стали, согласно заявлению Neuralink, пациенты с параличом и серьёзными расстройствами органов чувств. Следующим шагом должны стать испытания на физически здоровых добровольцах, но о сроках их пока даже приблизительно не сообщается.
Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
منبع: https://3dnews.ru/1099690