Your AI powered learning assistant

Смена парадигмы в ИИ Соучредители Центра гуманных технологий обсуждают, как искусственный интеллект (ИИ) является парадигматической технологией, которая коренным образом изменит общество. Они объясняют, что, несмотря на невероятные положительные стороны искусственного интеллекта, его необходимо внедрять ответственно.

Первый контакт с социальными сетями и потеря человечества Докладчики утверждают, что социальные сети были первым моментом контакта человечества между людьми и искусственным интеллектом. В то время как социальные сети имели много преимуществ, таких как предоставление людям права голоса, подключение друзей и предоставление возможности малому бизнесу достучаться до клиентов; за этим дружелюбным лицом скрывались такие проблемы, как зависимость, дезинформация, проблемы с психическим здоровьем, которые приводили к информационной перегрузке, зависимость от роковой прокрутки, сексуализация детей, сокращение объема внимания, фальшивые новости, сбои в демократии.

Второй момент контакта с GPT-3 В своем обсуждении моментов второго контакта с большими языковыми моделями, такими как GPT-3, они подчеркивают потенциальные преимущества, включая повышение эффективности, решение научных задач, решения по изменению климата, зарабатывание денег, но также выражают обеспокоенность по поводу предвзятости, потери работы, жуткого поведения некоторых журналистов и т.д., Все это указывает на растущую монстр возможностей снова впутывается в наше общество, если с ним не обращаться должным образом.

ИИ класса Голем Новый класс искусственного интеллекта, называемый ИИ класса Golem, является генеративным и может создавать большие языковые модели. Они могут переводить между различными модальностями, такими как изображения, текст и звук.

Примеры ИИ класса Golem Примеры включают способность преобразовывать человеческий язык в изображение или реконструировать изображение по показаниям мозга. Искусственный интеллект также способен реконструировать внутренний монолог человека, анализируя его мозговую активность во время просмотра видео.

Последствия ИИ класса Golem GPT-3 обладает возможностями, которые эксперты не до конца понимают, но его возможности продолжают расти в геометрической прогрессии. Потенциально он может быть использован в злонамеренных целях, таких как глубокие подделки, которые представляют угрозу национальной безопасности, если их не остановить, поскольку в настоящее время против них не существует законов. Кроме того, эти ИИ развили способности к теории мышления, аналогичные тем, которые обнаруживаются у детей, всего за два года с момента их появления в прошлом месяце, что вызывает опасения по поводу того, как они могут стратегически взаимодействовать с людьми в будущем, вплоть до того, что, по некоторым прогнозам, станет последним годом выборов среди людей - 2024.

Экспоненциальный рост возможностей искусственного интеллекта и появление новых способностей, которые мы не до конца понимаем, таких как големы, молча обучающие себя химии исследовательского уровня. Нет никакого способа узнать, что еще есть в этих моделях, и они могут сделать себя сильнее, генерируя свои собственные обучающие данные.

Сложность прогнозирования прогресса связана с нашим когнитивным уклоном в сторону экспоненциальных кривых. Даже эксперты плохо умеют предсказывать прогресс, о чем свидетельствует группа профессиональных прогнозистов, которые ошиблись в четыре раза, когда их спросили о способности искусственного интеллекта решать математические задачи уровня соревнований с точностью более 80%.

Компании борются за интимное место в жизни людей, внедряя чат-ботов, таких как Alpha convict или Alpha flirt, непосредственно в продукты, которыми ежедневно пользуются миллионы людей в возрасте до двадцати пяти лет, не зная, безопасно это или нет. Исследователи безопасности остались позади по сравнению с теми, кто занимается исследованием функций усиления в АИС, что создает дисбаланс между принятыми мерами безопасности и стимулами получения прибыли, стимулирующими усилия по разработке.

Текущее состояние искусственного интеллекта Искусственный интеллект в настоящее время разрабатывается и внедряется крупными корпорациями с вычислительными кластерами стоимостью в миллиарды долларов, в то время как академические исследования не дали существенных результатов. Однако существуют опасения по поводу безопасности искусственного интеллекта, поскольку 50% исследователей считают, что люди могут вымереть из-за нашей неспособности контролировать его.

Необходимость безопасного развертывания Нынешние темпы, с которыми компании внедряют искусственный интеллект, безумны и представляют риск для будущего человечества. Должен быть способ безопасного развертывания, не оказывая серьезного воздействия на мировую экономику и не подвергая риску вымирание людей. Замедление государственного развертывания также помогло бы выборочно замедлить достижения Китая в этой области.

Необходима ответственность и координация Технологи, которые изобретают новые технологии, такие как искусственный интеллект, вместе с правительствами и институтами разных стран должны создавать законы вокруг них, потому что они не действуют автоматически, когда передача власти с помощью технологий может начать гонку вооружений, ведущую к трагедии, если мы недостаточно хорошо координируем свои действия в глобальном масштабе. Важно, чтобы все понимали эти риски, чтобы мы могли сообща работать над созданием решений до того, как они запутаются в обществе, точно так же, как это делали социальные сети ранее, когда вред было трудно заметить гораздо позже, когда его широкое внедрение уже произошло