Introduction
00:00:00Инженер Google в течение нескольких месяцев беседовал с чат-ботом LaMDA, что привело его к утверждению, что ИИ демонстрирует сознательность и заслуживает прав, схожих с человеческими отношениями. Google опровергла эти утверждения, переназначив его, подчеркнув, что доказательства не подтверждают его точку зрения. Это повествование, напоминающее фильм "Она", поднимает важные вопросы об истинных возможностях искусственного интеллекта, поскольку эксперты утверждают, что такие термины, как "машинное обучение" и "распознавание речи", часто преувеличивают реальные возможности компьютеров.
Technical Bias
00:02:27Обозначение этого процесса как "автоматическое распознавание речи" подразумевает, что компьютеры участвуют в когнитивной деятельности, в то время как на самом деле они просто выполняют транскрипцию ввода-вывода. Использование точного языка позволяет избежать вводящего в заблуждение предположения, что компьютеры думают или понимают как люди. Этот тонкий лингвистический сдвиг подчеркивает техническую предвзятость, которая может заставить пользователей чрезмерно полагаться на технологии, приписывая им человеческую осведомленность. Это демонстрирует важность точного определения операций с компьютером для предотвращения неправильных представлений.
Conclusion
00:04:32Обращение с компьютерами так, как будто они способны мыслить, рискует подвергнуть нас неожиданному обману. ИИ выявляет закономерности в массивных массивах данных, создавая убедительную иллюзию человеческого общения и сознания. Несмотря на свою сложность, ИИ только имитирует мыслительные процессы, а подлинные эмоции остаются недоступными. Уточняются ключевые термины: чат-боты - это программы, которые взаимодействуют онлайн, когнитивные функции связаны с психическими функциями, принятие желаемого за действительное предполагает маловероятные результаты, антропоморфизация означает приписывание объектам человеческих черт, а ошеломление означает негативное удивление.