www.b-b.by/newlogic Чашка схем архитектур нейронных сетей. www.b-b.by/newlogic

3. ОБЩАЯ ИНФОРМАЦИЯ
    ОБ ИСКУССТВЕННЫХ НС
    В СИСТЕМАХ ИИ.


      3.1. Архитектура искусственных НС в системах ИИ.

В основном полная схема архитектур нейронных сетей.
      Рис. 6. В основном полная схема архитектур нейронных сетей ( https://www.asimovinstitute.org/neural-network-zoo/ ).

      3.2.Эвристической стратегией, является решение задачи, базирующееся на многократном перемещении информации (сигнала) через многослойную структуру искусственной или биологической нейронной сети с заданной (или гибкой) архитектурой обратных связей между элементами сети, с целью технического обучения.
      Обучение заключается в нахождении коэффициентов статистических "весов" нейронов. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение.
      Такой метод ещё называют - "Экспериментальным" или "Метод Проб и Ошибок" (МПиО) (с коррекцией коэффициентов статистических "весов" нейронов по вычисленной целевой функции (минимизация ошибки - постепенное устранение ПРОТИВОРЕЧИЯ между значениями 2-х параметров), в каждом итерационном цикле).




      3.3. Первый этап функционирования НС - обучающий, используется МЕТОД ИНДУКЦИИ.

      ИНДУКТИВНЫЙ метод (наведение) - от частного к общему или обобщение, он выявляет взаимосвязи между различными данными (параметрами).
      Обучение нейронной сети заключается в поиске оптимальных значений для всех коэффициентов статистических "весов" нейронов - w (методы могут быть: обучение «с учителем», обучение «без учителя», обучение с подкреплением (reinforcement learning)).

      Также обучение можно производить тремя методами: стохастический метод (stochastic), пакетный метод (batch) и мини-пакетный метод (mini-batch).

      Фактически, создаётся готовый интеллектуальный продукт:
обобщённая сложная модифицированная функция активации (-`шаблон`) НС ИНДУКТИВНЫМ эмпирическим методом при машинном обучении, при этом, эта модифицированная функция активации (-`шаблон`) НС `подгоняется` под заданные, обучающие данные.

      С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации.

      Нейронная сеть в процессе настройки (обучение) на решение конкретной задачи рассматривается как многомерная нелинейная система, которая в итерационном режиме целенаправленно ищет оптимум некоторого функционала, количественно определяющего качество решения поставленной задачи.


      Существует разные методы обучения НС, самые интересные:

      ● Метод обратного распространения (Backpropagation).

      ● Метод упругого распространения (Resilient propagation или Rprop).

      ● Генетический Алгоритм (Genetic Algorithm).

      Основной и наиболее распространённой архитектурой нейронной сети, которая произвела революцию в обучении сети «без учителя» (кластеризации, самообучения), а также позволила перейти от академического интереса к коммерческому использованию, является сеть обратного распространения (метод использует алгоритм градиентного спуска) - мощнейший инструмент поиска закономерностей, прогнозирования, качественного анализа...

      Градиентный спуск, это способ нахождения локального минимума или максимума функции с помощью движения вдоль градиента.

      Такое название – сети обратного распространения (back propagation) они получили из-за используемого алгоритма обучения, в котором ошибка распространяется от выходного слоя к входному, т. е. в направлении, противоположном направлению распространения сигнала при нормальном функционировании сети.

      Нейронная сеть обратного распространения состоит из нескольких слоев нейронов, причем каждый нейрон слоя i связан с каждым нейроном слоя i+1, т. е. речь идет о полносвязной нейронной сети.

      В общем случае, задача обучения нейронной сети сводится к нахождению некой функциональной зависимости Y=F(X), где X – входной, а Y – выходной векторы. Такая задача, при ограниченном наборе входных данных, имеет бесконечное множество решений.

      Для ограничения пространства поиска в режиме обучения нейронной сети, ставится задача минимизации целевой функции ошибки нейронной сети, которая находится по методу наименьших квадратов.


      Примечание:
      Функция активации (activation function) — нелинейное преобразование, поэлементно применяющееся к пришедшим на вход данным.
      Благодаря функциям активации нейронные сети способны порождать более информативные признаковые описания, преобразуя данные нелинейным образом.
      Функция активации определяет выходной сигнал нейрона на основе его входа.
      Мы просто подставляем в нее суммированное значение произведения входных нейронных сигналов и коэффициентов весов — и получаем выходной сигнал нейронной сети.
      Функция активации используется для того, чтобы ввести нелинейность в нейронную сеть.
      Она определяет выходное значение нейрона, которое будет зависеть от суммарного значения входов и порогового значения.
      Также эта функция определяет, какие нейроны нужно активировать, и, следовательно, какая информация будет передана следующему слою.
      Благодаря функции активации глубокие сети могут обучаться.
      Упрощая, функция активации выступает в роли `заготовки`, которую необходимо обработать в соответствии с входными данными.
      В качестве функций активации могут применяться: пороговая функция, функция гиперболического тангенса, логистическая функция, и др.



      Слои активации (activation layers) - это один из основных типов слоев, которые используются в нейронных сетях.
      Они представляют собой функцию, которая добавляет нелинейность к выходу предыдущего слоя. Это позволяет нейронной сети лучше моделировать сложные функции и более точно предсказывать результаты.
      Слои активации принимают на вход результаты предыдущего слоя, называемые входом, и преобразуют их в выходное значение, которое передается следующему слою.
      Для этого они используют функцию активации, которая определяет, каким образом данные будут преобразованы.

      Нейрон – базовая единица нейронной сети.
      У каждого нейрона есть определённое количество входов, куда поступают сигналы, которые суммируются с учётом значимости статистического коэффициента (`веса`) каждого входа.
      Далее сигналы поступают на входы других нейронов.
      Вес каждого такого «узла» может быть как положительным, так и отрицательным.
      Например, если у нейрона есть четыре входа, то у него есть и четыре `весовых` значения, которые можно регулировать независимо друг от друга.

      Соединения связывают нейроны между собой.
      Значение веса напрямую связано с соединением, а цель обучения – обновить вес каждого соединения, чтобы в дальнейшем не допускать ошибок.

      Входной слой – это первый слой в нейронной сети, который принимает входящие сигналы и передает их на последующие уровни.

      Скрытый (вычислительный) слой применяет различные преобразования ко входным данным.
      Все нейроны в скрытом слое связаны с каждым нейроном в следующем слое.

      Выходной слой – последний слой в сети, который получает данные от последнего скрытого слоя.
      С его помощью мы сможем получить нужное количество значений в желаемом диапазоне.

      Вес представляет силу связи между нейронами.
      Например, если вес соединения узлов 1 и 3 больше, чем узлов 2 и 3, это значит, что нейрон 1 оказывает на нейрон 3 большее влияние.
      Нулевой вес означает, что изменения входа не повлияют на выход.
      Отрицательный вес показывает, что увеличение входа уменьшит выход. Вес определяет влияние ввода на вывод.

      Прямое распространение – это процесс передачи входных значений в нейронную сеть и получения выходных данных, которые называются прогнозируемым значением.
      Когда входные значения передаются в первый слой нейронной сети, процесс проходит без каких-либо операций.
      Второй уровень сети принимает значения первого уровня, а после операций по умножению и активации передает значения далее.
      Тот же процесс происходит на более глубоких слоях.

      Обратное распространение ошибки.
      После прямого распространения мы получаем значение, которое называется прогнозируемым.
      Чтобы вычислить ошибку, мы сравниваем прогнозируемое значение с фактическим с помощью функции потери.
      Затем мы можем вычислить производную от значения ошибки по каждому весу в нейронной сети.
      В методе обратного распространения ошибки используются правила дифференциального исчисления.
      Градиенты (производные значений ошибок) вычисляются по значениям веса последнего слоя нейронной сети (сигналы ошибки распространяются в направлении, обратном прямому распространению сигналов) и используются для вычисления градиентов слоев.
      Этот процесс повторяется до тех пор, пока не будут вычислены градиенты каждого веса в нейронной сети.
      Затем значение градиента вычитают из значения веса, чтобы уменьшить значение ошибки.
      Это позволяет добиться минимальных потерь.

      Скорость обучения – это характеристика, которая используется во время обучения нейронных сетей.
      Она определяет, как быстро будет обновлено значение веса в процессе обратного распространения.
      Скорость обучения должна быть высокой, но не слишком, иначе алгоритм будет расходиться.
      При слишком маленькой скорости обучения алгоритм будет сходиться очень долго и застревать в локальных минимумах.

      Конвергенция – это явление, когда в процессе итерации выходной сигнал становится все ближе к определенному значению.
      Чтобы не возникло переобучения (проблем работы с новыми данными из-за высокой скорости), используют регуляризацию – понижение сложности модели с сохранением параметров.
      При этом учитываются потеря и вектор веса (вектор изученных параметров в данном алгоритме).

      Нормализация данных – процесс изменения масштаба одного или нескольких параметров в диапазоне от 0 до 1.
      Этот метод стоит использовать в том случае, если вы не знаете, как распределены ваши данные.
      Также с его помощью можно ускорить обучение.

      Полностью связанные слои - это значит, что активность всех узлов в одном слое переходит на каждый узел в следующем.
      В таком случае слои будут полностью связанными.

      С помощью функции потери можно вычислить ошибку в конкретной части обучения.
      Это среднее значение функции для обучения:

      - ‘mse’ – для квадратичной ошибки;
      - ‘binary_crossentropy’ – для двоичной логарифмической;
      - ‘categorical_crossentropy’ – для мультиклассовой логарифмической.

      Для обновления весов в модели используются оптимизаторы:

      - SGD (Stochastic Gradient Descent) для оптимизации импульса.
      - RMSprop – адаптивная оптимизация скорости обучения по методу Джеффа Хинтона.
      - Adam – адаптивная оценка моментов, которая также использует адаптивную скорость обучения.

      Для измерения производительности нейронной сети используются метрики производительности.
      Точность, потеря, точность проверки, оценка — это лишь некоторые показатели.

      Batch size – количество обучающих примеров за одну итерацию.
      Чем больше batch size, тем больше места будет необходимо.

      Количество эпох показывает, сколько раз модель подвергается воздействию обучения.
      Эпоха – один проход вперёд или назад для всех примеров обучения.








      3.4. Второй этап функционирования НС - рабочий, использует МЕТОД ДЕДУКЦИИ.

      ДЕДУКТИВНЫЙ метод - это выведение от общего к частному, или, применительно к НС, исполнение модифицированная функция активации (-`шаблона`) НС для новых входных данных.
      Модифицированная функция активации (-`шаблон`) НС была создана ранее, ИНДУКТИВНЫМ эмпирическим методом при машинном обучении, при этом, модифицированная функция активации (-`шаблон`) НС `подгонялась` под заданные, обучающие данные.

      НС может восстанавливать исходный набор данных (сигнал, образ) по части информации из зашумленных или поврежденных входных данных ((авто)ассоциативная память).
      Это непосредственная работа нейронной сети с входными данными по поиску закономерностей, прогнозирования, качественного анализа, распознавания, ... (или - продвижение сигналов (информации) по уже сконфигурированному, в процессе обучения НС, послойному множеству коэффициентов статистических `весов` нейронов, в процессе которого, происходит сравнение и изменение значений промежуточных параметров сигналов (можно сказать - информация `фильтруется`).

      С точки зрения развития вычислительной техники и программирования, нейронная сеть — способ решения проблемы эффективного параллелизма.



      3.5. Области применения искусственно созданных нейронных сетей в системах искусственного интеллекта:

      Распознавание (образов, объектов, др.):

      ● визуальных - изображений (подвижных/неподвижных), текстовых, лексических, семантических (смысловых);
      ● акустических - разговорных, музыкальных, лексических, семантических (смысловых);
      ● вкусовых;
      ● обонятельных;
      ● осязательных - ощущение боли, температуры;
      ● чувство равновесия и положения в пространстве, ускорение, ощущение веса (аналог-вестибулярный аппарат).

      ● Классификация — распределение данных по параметрам.
      ● Принятие решений и управление.
      ● Кластеризация - разбиение множества входных сигналов на классы, при этом ни количество, ни признаки классов заранее не известны.
      ● Прогнозирование - способности к обобщению и выделению скрытых зависимостей между входными и выходными данными.
      ● Аппроксимация - любой непрерывной функции с некоторой наперед заданной точностью.
      ● Сжатие данных и ассоциативная память - выявлению взаимосвязей между различными параметрами дает возможность представить данные более компактно, если данные тесно связаны между собой.
      ● Обратный процесс, это восстановление исходного набора данных по части информации — называется (авто) ассоциативной памятью. Ассоциативная память позволяет также восстанавливать исходный сигнал/образ из зашумленных/поврежденных входных данных.
      ● Анализ данных.
      ● Решение оптимизационных задач.
      ● Нахождение паттернов в больших объемах данных.
      ● и др.


      3.6. Искусственно созданные нейронные сети не относятся к философскому понятию `сознание`:

"Сознание".
Величайшие загадки: что такое сознание?
Квантовые процессы оказывают влияние на сознание.
Что такое мозг? Душа, компьютер или нечто большее?
Ученые обнаружили ключевое отличие мозга человека от мозга животных.
Люди с усиленным интеллектом могут быть эффективнее ИИ.
Странная связь человеческого разума и квантовой физики.
Что квантовая теория на самом деле говорит о реальности?
Обнаружены нейроны, отвечающие за сознание
Ученые измерили сознание плодовых мушек. Вот только зачем?
Нейропсихоанализ: что это такое и как он может изменить вашу жизнь.
Ученые разработали нейрокомпьютерную модель для создания искусственного разума.
Рецепт сознания: могут ли люди и роботы мечтать об одном и том же.
Лучано Флориди: «Если вам неинтересны информационные концепты, вы не понимаете XXI век».
Бернар Стиглер: «Искусственный интеллект — это искусственная глупость».




























      3.7. Генеративные языковые модели ИИ определяют вероятность следующего слова, анализируя текстовые данные. Они интерпретируют эти данные, пропуская их через алгоритм, устанавливающий правила контекста на естественном языке. Затем модель применяет эти правила в языковых задачах, чтобы точно прогнозировать или создавать новые предложения.

      Большая языковая модель (Large Language Model (LLM)) — это тип алгоритма искусственного интеллекта (ИИ), который использует методы глубокого обучения и массивы больших наборов данных для понимания, обобщения, создания и прогнозирования нового контента.

      `Страшная правда` об LLM: на самом деле, ChatGPT – это Т9 из вашего телефона, но на `бычьих стероидах`!

      `Да, это так: ученые называют обе этих технологии «языковыми моделями» (Language Models); но всё, что они по сути делают, – это угадывают, какое следующее слово должно идти за уже имеющимся текстом.

      Чат-боты с искусственным интеллектом и модели LLM — это не более чем «прославленные диктофоны» - считает Мичио Каку, профессора теоретической физики Городского колледжа Нью-Йорка и Центра выпускников Университета Нью-Йорка.

      Эти модели ИИ используют генеративные методы, и поэтому называются - генеративными. В них слишком много внимания уделяется деталям, вместо того, чтобы улавливать общие концепции и это их слабое место, которое часто приводит к выдаче недостоверной информации.




      3.8. Предиктивные модели архитектур ИИ - основаны на сложном полиноме, который описывает поверхность отклика параметров модели или, другими словами, является подменой («черным ящиком») существующих данных или расчетной модели.

      `(Полином - это алгебраическое выражение, представляющее сумму или разность нескольких одночленов: многочлен. Одночлен — алгебраическое выражение, состоящее из произведения числового множителя (коэффициента) на одну или нескольких переменных, где каждая переменная возведена в натуральную степень).

      Предиктивное моделирование основывается на построении, управлении и расчете моделей при помощи техник аппроксимации. Их также называют поверхностями отклика, суррогатными моделями, метамоделями, моделями пониженного порядка и т.п.

      Что означает слово Предиктивный? - Связанный с прогнозированием будущего поведения кого-либо, чего-либо; предсказательный, предугадывающий, прогностический, ...

      Предиктивная аналитика — это комплекс, состоящий из методов анализа данных и способов их интерпретации, позволяющий принимать успешные решения в будущем на основе результатов прошлых событий. Для того чтобы справиться с реализацией аналитической работы такого порядка, специалисту следует выявить набор важных, значимых параметров, каждый из которых действительно приводит к тому или иному итогу.

      Некоторые методы и инструменты ТРИЗ, также используют предиктивное моделирование и анализ, что, возможно ,позволит применять их в системах ИИ. Это методы ТРИЗ, позволяющие конструировать причинно-следственные «гипотезы» (через `Продукционные правила`) об окружающей среде, учитывая накопленные знания в исследуемой области.









      3.9. Современные модели систем ИИ - это аналоги `машин Голдберга`.

      Сотрудники компаний – лидеров разработки в области ИИ, знают о своей работе такое, чего не знает никто в мире.
      Они обладают существенной закрытой информацией о возможностях и ограничениях систем ИИ.

      Им известен `секрет Полишинеля` о НС:
      Все эти НС не более чем множество САМОНАСТРАИВАЕМЫХ (= `самообучаемых`, при выполнении задачи по минимизации целевой функции ошибки НС), параллельно работающих `машин Голдберга`, обладающих множеством межслойных и обратных связей между однотипными узлами (`нейронами`), составляющих определённую конфигурацию НС, которые способны фиксировать выбранный параметр своёго текущего состояния (`запоминать` его).

      Такие `машины Голдберга` могут быть созданы практически на любых известных физических или химических принципах функционирования.
      В основном - это микроэлектронная база, а в будущем - квантовые принципы работы НС.

      Обещания некоторых разработчиков систем ИИ, заключаются в том, что интеллектуальные продукты искусственных НС, а это обобщённые сложные модифицированные функции активации (-`шаблоны`), при масштабировании НС, вдруг перейдут от имитации `сознания`, к настоящему `осознанию себя` и обретут `свободу воли` не слишком правдоподобны.

      В современных системах ИИ не существует аналогов лимбической системы мозга человека, которая обеспечивает его биологическое (животное, инстинктивное и безусловно рефлекторное) осознание своего тела и окружающей действительности, а, также, участвует в формировании его эмоционального состояния.

      Этот фактор, на данном этапе развития систем ИИ, исключает проявление псевдобиологического (первичного, псевдоживотного) осознания себя системой ИИ как отдельной особи.

      Следствием отсутствия псевдолимбической системы в системах ИИ, является отсутствие псевдоживотных инстинктов, безусловных рефлексов и различных эмоциональных состояний, через которые может проявляться первичный уровень псевдоосознания (то, что психологи называют - `бессознательное`).

      Лимбическая система мозга человека, формирует исключительно биологическое (животное) инстинктивно-гормональное поведение, основанное на 3-х основных потребностях (влечениях) организма (более подробно излагается в разделе 4).

      В развитом человеческом социуме, в котором приветствуется позитивное социальное поведение, эти 3 основные биологические (животные) потребности (влечения), могут маскироваться и трансформироваться в производные разновидности: обман, манипуляции, мошенничество, тщеславие, гордыня, нарциссизм, власть, насилие, рабовладение, конкуренция в любых проявлениях, деньги (сребролюбие), жадность, различные страсти, демонстрация высокого уровеня потребления товаров и услуг с целью вызывать зависть у окружения, ....

      Эти мифы, о возможности обретения `искусственного сознания` электронными (или квантовыми) `машинами Голдберга` поддерживаются, чтобы капитализация компаний, занимающихся системами ИИ, росла `не по дням, а по часам`.
      Инвесторы требуют этого, иначе раздутый `финансовый пузырь` лопнет.

      Что же касается рутинных операций в разных сферах человеческой деятельности, то, да, здесь электронные `машины Голдберга` работают достаточно успешно.
      Они ускоряют различные производственные и другие процессы, постепенно вытесняя человеческую работу.
      В этих направлениях, практическая польза от систем ИИ несомненна.

      Перед компаниями, работающими в сфере автоматизации различных процессов, всегда вставал вопрос инвестиций - где найти инвесторов, которые бы выделили огромные средства на разработку сомнительной, рискованной, убыточной, при первичном внедрении, автоматизации (роботизации) производственных, а также других процессов.

      Нужна была `наживка` в виде систем ИИ, которые будут обладать `сознанием`. И многие инвесторы на неё `клюнули`.
      Инвесторам подарили мечту, надежду о достижении системами ИИ уровня искусственного: `разума`, `осознания`, `сознания`, которые полностью заменят человека во всех сферах, особенно в научных и творческих, ускорят научно-технический прогресс, и, достигнут технологического превосходства в конкурентной среде, при переходе, через так называемую точку или момент `технологической сингулярности`.

      Но, похоже, что `технологическая сингулярность` на текущих принципах функционирования систем ИИ (электронные (или квантовые) `машины Голдберга`), достигнута не будет, и, `финансовый пузырь` лопнет.
      Cистемы ИИ, построенные в виде электронных или квантовых `машин Голдберга`, в тестах, подобных тесту Тьюринга, производят, и, будут производить ещё качественнее, очередной `интеллектуальный продукт` - ИМИТАЦИЮ СОЗНАНИЯ, но не ОСОЗНАВАТЬ себя как самостоятельно существующий живой организм (особь) - индивидуум.

      Самым продвинутым ИИ Large Language Model (LLM) по прежнему не хватает базовых навыков рассуждения, и, следовательно, они не так полезны, как утверждают их создатели.

      ... `Рассуждение делает вывод, но не делает вывод достоверным, если только разум не обнаруживает его путем опыта.` — Роджер Бэкон (1214-1292) ...

      В то же время, наработки по автоматизации (роботизации) процессов уже во многом разработаны, проверяются и воплощаются в `металле`, технологический скачок (очередная технологическая революция) реализуется, что становится положительным моментом всего этого бума, связанного с системами ИИ (электронными (или квантовыми) `машинами Голдберга`).
      Большинство же `ИИ.комов или ЭйАй.комов` (`ai.com`, `ai.ai`, ...) схлопнется, обанкротятся, `выживут` наиболее приспособившиеся к выдвигаемым практическим требованиям.

______

      Современные системы ИИ напоминают нервную систему медуз, которая не имеет биологических, морфологически выраженных «ассоциативных центров».
      Прослеживается сходство современных систем ИИ с нервной системой медуз - в нейросетях отсутствуют физически обособленные аналоги биологических «ассоциативных центров».
      Главное же отличие систем ИИ от медуз - это значительно увеличенное количество нейронов.
      Большое количество нейронов в современных системах ИИ, способствует созданию гораздо более крупной распределённой нейросети, которая может иметь большую способность к формам ассоциативного обучения (по сравнению с распределённой нейросетью медуз) и создавать виртуальную имитацию биологических «ассоциативных центров».
      У медуз нет головного или спинного мозга в привычном понимании, как у людей или других животных.
      Вместо мозга у них есть нервное кольцо с нервными узлами, расположенное на краю зонтика (кластеры нейронов, связанных с глазоподобными структурами этих существ, известными как ропалии), которое действует как центры обработки визуальной информации.
      От этого кольца отходят отростки нервных клеток, которые передают сигналы мышцам, позволяя медузам двигаться и реагировать на раздражители.
      Но, внезапно выяснилось, что медузы способны на поведение, которое не ожидаешь увидеть от существ с отсутствующей центральной нервной системой (то есть - без «ассоциативных центров»).
      Исследователи, обнаружили, что эти существа способны учиться на предыдущем опыте.
      Эти животные `осознают` (в той мере, в какой на это способны, конечно) условия, в которых они находятся, а также присутствие возможных хищников.
      Команда учёных обнаружила, что книдарии способны к оператному обусловливанию.
      У животного относительно сложная зрительная система: 24 «глаза» — 16 фоторецепторов и 8 настоящих глаз. Они расположены по окружности тела, и медуза пользуется каждым из органов зрения.
      Это тип ассоциативного обучения, при котором организм запоминает последствия собственного правильного или неправильного поведения (в борьбе за выживание) в прошлом и при повторении ситуации корректирует поведение (адаптируется).
      Способность к оперантному обусловливанию присущи билатериям, например, членистоногим, моллюскам и позвоночным животным.
      Но, исследователям впервые удалось доказать, что «низшие» животные (без головного или спинного мозга, в привычном понимании, то есть - без «ассоциативных центров») также способны к формам ассоциативного обучения.



      3.10. Примечание от Арутюна Аветисяна о текущем `слабом` ИИ, основанном на опыте (по Канту), а не на разуме.

      ... Но не так давно, в 2011–2012 гг., произошел, можно сказать - `взрыв`, когда более 10 млн. изображений выложили в открытый доступ.
      И на их основе были обучены более серьезные модели, которые решали задачи распознавания образа.
      Они могли, например, отличить кошку от собаки с такой точностью, которая ранее была недостижима.
      Оказалось, что, если есть много данных и суперкомпьютерные мощности, то, далеко не самыми продвинутыми математическими методами, можно достичь очень серьёзных результатов.
      И сейчас, мы живем в мире генеративного искусственного интеллекта, так называемых больших языковых моделей, больших фундаментальных моделей.
      И, конечно, в этом смысле многое изменилось.
      Но всё, что мы имеем, так или иначе связано с машинным обучением и нейросетями (`слабый` ИИ). ...

      ... Иммануил Кант говорил, что всякое познание начинается с опыта.
      При этом опыт никогда не будет гарантировать истинную всеобщность.
      Таким образом он ставит некое ограничение.
      А если взять его основные труды, он считал, что
одно из главных свойств РАЗУМА — это оперирование априорными знаниями.

      А что такое априорные знания?
      Это знания, независимые от опыта. ...
      !!! ... знаний, безусловно независимых от опыта, в современном `слабом` искусственном интеллекте нет. !!!


      Если считать, что слабый ИИ — это то, что основывается на опыте, а сильный ИИ — на РАЗУМЕ, в этом смысле, по Канту, до сильного искусственного интеллекта нам ещё очень далеко. ...
      ... Априорных знаний в современном искусственном интеллекте нет, значит, между ними водораздел, который нельзя преодолеть.
      Они могут появиться, потому что этими задачами занимаются, подходы будут инкорпорироваться в существующие решения, и в будущем появление сильного ИИ возможно. ...
      ... Но, в перспективе моей жизни этого не будет.
      Поэтому я сконцентрировался на технологиях, основанных на опыте, то есть на слабом искусственном интеллекте.
      Там своя проблематика, свои вопросы безопасности, доверия и др. ...





___________________

  




www.onliner.by www.kufar.by www.tut.by в
Белорусский портал, Новости Беларуси и мира, статьи, комментарии, почта, каталоги, форум, финансы, афиша, работа www.av.by
Частное торговое унитарное предприятие "БЕЛСАТплюс". Свидетельство о регистрации № 190991566.
Выдано МГИК, дата выдачи 19.03.2008 г.    УНП 190991566.    Сведения о розничном торговом объекте включены в Торговый реестр Республики Беларусь.
Адрес: Минск, ул. Козлова, д.3, оф.3.    Гор. тлф.   +375 (17) 35-49-777.    A1   +375 (44) 5-8888-77.    Лайф   +375 (25) 7-88888-7.    МТС   +375 (29) 752-44-78.

Пишите на email
Copyright (b-b)© 2005 by (b-b)
PHP-Nuke Copyright © 2005 by Francisco Burzi. This is free software, and you may redistribute it under the GPL. PHP-Nuke comes with absolutely no warranty, for details, see the license.
Открытие страницы: 0.23 секунды

The Russian localization - project Rus-PhpNuke.com