Меню
Поиск



рефераты скачать Теоретические основы математических и инструментальных методов экономики

Теоретические основы математических и инструментальных методов экономики

Теоретические основы специальности.

Оптимизационные методы решения экономических задач. Классическая постановка задачи оптимизации. Оптимизация функций. Оптимизация функционалов. Общая постановка задачи.

К экономическим задачам оптимизационного типа относятся задачи, в которых требуется найти наилучшее или оптимальное решение при заданных условиях производства. Такие задачи называются задачами на максимум или минимум. Особенностью задач оптимизационного типа является многовариантность их решений, обусловленная следующими причинами: взаимозаменяемостью ресурсов; взаимозаменяемостью готовых видов продукции; существованием альтернативных технологий производства; неодинаковостью технико-экономических показателей даже однотипных хозяйственных субъектов.

 Возможны два подхода к  постановке оптимизационных задач: при первом подходе требуется получить максимальные  конечные результаты при заданных условиях производства; при втором подходе требуется получить заданные конечные результаты при минимальных затратах ресурсов.

Математический инструментарий, позволяющий решать экономические задачи оптимального типа, называется программированием. Различают линейное и нелинейное программирование.

 На практике наибольшее распространение получило линейное программирование.

Методы линейного программирования в математике известны под названием общей задачи линейного программирования.

 Аналитическая формулировка общей задачи линейного программирования

Общая задача линейного программирования формулируется следующим образом:

Найти решение {Х1,Х2,….Хn}, позволяющее максимизировать или минимизировать  целевую функцию

F = C1X1+C2X2+…+ CnXn

при условиях

   Х1≥0; Х2≥0; …; Хn≥0.

Это развернутая запись общей задачи линейного программирования.

Сокращенная запись этой модели имеет вид:

Найти решение {Xj}, позволяющее максимизировать (минимизировать) функцию  

 

при условиях

 , i  = 1,2,…,n;

 Xj ≥ 0, j = 1,2,…,n.

 Вышеприведенные записи общей задачи линейного программирования называют аналитической формой записи.

Любое решение, удовлетворяющее условиям, называется  допустимым решением. Допустимое решение систем неравенств, удовлетворяющее целевой функции, называется оптимальным решением. Такое решение единственно при заданных условиях.




Матричная форма записи общей задачи линейного программирования

при ограничениях AX≤B

                              X≥0,

где С = (с1, с2,…, сn);

                  

где С – матрица-строка

 А – матрица системы

 Х – матрица-столбец переменных

 В – матрица-столбец свободных членов

Векторная форма записи общей задачи линейного программирования

F = CX → max (min)

при ограничениях

Х≥0,

где СХ – скалярное произведение векторов

С = (С1, С2, …, Сn) и Х = (х1, х2, …, хn),

векторы


состоят соответственно из коэффициентов при переменных и свободных членов.

(про функционал)

В общем случае задача оптимизации формулируется как задача отыскания max или min значения I(v) для .

Под решением такой задачи понимается такое , что для остальных элементов  выполняется неравенство  или  в зависимости от требований задачи.

При этом:

v – некоторая функция

I(v) – функционал вида

Многокритериальная оптимизация. Методы сведения многокритериальной задачи к однокритериальной. Метод уступок. Методы определения уровня предпочтений. Способы поиска паретовского множества альтернатив.

Многокритериальная оптимизация представляет собой минимизацию некого вектора целей F(x), на которой могут быть наложены дополнительные ограничения или предельные значения:

(3-47)

Отметим, что поскольку F(x) является неким вектором, то любые компоненты F(x) являюся конкурирующими и отсутсвует некое единое решение поставленной задачи. Взамен этого, для описания характеристик целей вводится концепция множества точек неулучшаемых решений [41] (так называемая оптимальность по Паретто [4],[6]). Неухудшаемое решение есть такое решение, в котором улучшение в одной из целей приводит к некому ослаблению другой. Для более точной формулировки данной концепции рассмотрим некую область допустимых решений в параметрическом пространстве , которое удовлетворяет всем принятым ограничениям, т.е.

(3-48)

при ограничениях

Отсюда возможно определить соответствующую область допустимых решений для пространства целевых функций .

, где при условии

(3-49)

Точка неулучшаемого решения может быть определена как:

Определение. Точка является неулучшаемым решением, если для некоторой окрестности нет некого такого, что и


Стратегия взвешенных сумм

Данная стратегия взвешенных сумм преобразует многокритериальную задачу минимизации вектора в некую скалярную задачу путем построения неких взвешенных сумм для всех выбранных объектов.

(3-51)

Далее уже к данной задаче оптимизации уже может быть применен стандартный алгоритм оптимизации без наличия ограничений. В этом случае рассматриваются взвешенные коэффициенты для каждой из выбранных целей. Взвешенные коэффициенты необязательно должны напрямую соответствовать относительной значимости соответствующей цели или принимать во внимание взаимовлияние между конкретно выбранными целями. Более того, границы неулучшаемых решений могут быть и не достигнуты, так что определенные решения являются по существу недостижимыми.

Метод -ограничений

Некий определенный способ, который отчасти позволяет преодолеть проблему выпуклости метода взвешенных сумм, есть метод -ограничений. В этом случае осуществляется минимизация основной цели и при представлении остальных целей в форме ограничений типа неравенств.

(3-52)

при выполнении условия

Подобный подход позволяет определить некое количество неулучшаемых решений для случая вогнутой границы, что, по существу, является недоступным в методе взвешенных сумм, например, в точке искомого решения и . Однако проблемой данного метода является подходящий выбор , который мог бы гарантировать допустимость некого решения.

Метод достижения цели.

Описанный далее метод представляет собой метод достижения цели Гембики. Данный метод включает в себя выражение для множества намерений разработчика , которое связано с множеством целей . Такая формулировка задачи допускает, что цели могут быть или недо- или передостижимыми, и что дает разработчику возможность относительно точно выразить исходные намерения. Относительная степень недо- или передостижимости поставленных намерений контролируется посредством вектора взвешенных коэффициентов и может быть представлена как стандартная задача оптимизации с помощью следующей формулировки

(3-53)

При условии, что

Член вносит в данную задачу элемент ослабления, что, иначе говоря, обозначает жесткость заданного намерения. Весовой вектор w дает исследователю возможность достаточно точно выразить меру взаимосвязи между двумя целями. Например, установка весового вектора w как равного исходному намерению указывает на то, что достигнут тот же самый процент недо- или передостижимости цели . Посредством установки в ноль отдельного весового коэффициента (т.е. ) можно внести жесткие ограничения в поставленную задачу. Метод достижения цели обеспечивает подходящую интуитивную интерпретацию поставленной исследовательской задачи и которая, в свою очередь, является вполне разрешимой с помощью стандартных процедур оптимизации.

Гладкая оптимизация. Седловая точка. Условие Куна-Таккера. Двойственные задачи оптимизации.

Метод множителей Лагранжа позволяет отыскивать максимум или минимум функции при ограничениях-равенствах. Основная идея метода состоит в переходе от задачи на условный экстремум к задаче отыскания безусловного экстремума некоторой построенной функции Лагранжа. Пусть задана задача НП при ограничениях-равенствах вида

минимизировать                     (5.2.1)

при ограничениях

                            (5.2.2)

Предположим, что все функции – дифференцируемы. Введем набор переменных  (число которых равняется числу ограничений), которые называются множителями Лагранжа, и составим функцию Лагранжа такого вида:

              (5.2.3)

Справедливо такое утверждение [18]: для того чтобы вектор  являлся решением задачи (5.2.1) при ограничениях (5.2.2), необходимо, чтобы существовал такой вектор , что пара векторов удовлетворяла бы системе уравнений

                          (5.2.4)

                       (5.2.5)

множителей Лагранжа, который состоит из следующих шагов.

Составляют функцию Лагранжа     

Находят частные производные       

Решают систему уравнений

                  (5.2.16)

и отыскивают точки , удовлетворяющие системе (5.2.16).

 Найденные точки  дальше исследуют на максимум (или минимум).


 Седловая точка и задача нелинейного программирования

Рассмотрим функцию Лагранжа  

Определение Пара векторов  называется седловой точкой функции Лагранжа , если при всех  выполняется условие

                        (5.3.28)

Неравенство (5.3.28) называют неравенством для седловой точки. Очевидно, что в седловой точке выполняется условие

            (5.3.29)

Между понятием седловой точки функции Лагранжа и решением задачи НП существует взаимосвязь, которая устанавливается в следующей теореме.

Теорема 5.9. Пусть  и все  выпуклы и функции  удовлетворяют условию регулярности Слейтера. Вектор  является решением задачи НП (5.3.1), (5.3.2) тогда и только тогда, когда существует такой вектор , что

                   (5.3.30)

и

                          (5.3.31)

Теорема Куна-Таккера. Пусть функции , имеют непрерывные частные производные на некотором открытом множестве , содержащем точку . Если  является точкой минимума функции  при ограничениях , удовлетворяющих  условию регулярности в виде линейной независимости векторов , то существуют такие неотрицательные множители Лагранжа  , что

                            (5.3.15)

                    (5.3.16)

Определим функцию Лагранжа следующим образом:

                          (5.3.17)

Тогда теорему Куна-Таккера можно записать в виде

                                (5.3.18)

                             (5.3.19)

              (5.3.20)

Заметим, что множители Лагранжа  в задаче НП с ограничениями-равенствами являются знаконеопределенными, тогда как в теореме Куна-Таккера они должны быть положительными.

Каждой задаче линейного программирования соответствует двойственная задача. Двойственная задача по отношению к исходной задаче строится по следующим правилам:

·        Если исходная задача ставится на максимум, то двойственная ставится на минимум и наоборот.

·        Коэффициенты целевой функции исходной задачи становятся правыми частями ограничений двойственной задачи. Правые части ограничений исходной задачи становятся коэффициентами целевой функции двойственной задачи.

·        Если A-матрица коэффициентов исходной задачи, то транспонированная матрица T A будет матрицей коэффициентов двойственной задачи.

·        В задаче на максимум все ограничения имеют знак ≤ (=), а в задаче на минимум все ограничения имеют знак ≥ .

·        Число переменных в двойственной задаче равно числу ограничений в исходной задаче. Каждому ограничению исходной задачи соответствует переменная двойственной задачи. Если ограничение исходной задач имеет знак (≥ ), то соответствующая переменная двойственной задачи неотрицательна. Если ограничение имеет знак (=), то соответствующая переменная двойственной задачи может принимать положительные и отрицательные значения и наоборот.

Градиентные методы гладкой оптимизации. Общая идея градиентного спуска (подъема). Пропорциональный градиентный метод. Полношаговый градиентный метод. Метод сопряженных градиентов.

Методы отыскания экстремума, использующие производные, имеют строгое математическое обоснование. Известно, что при отыскании экстремума не существует лучшего направления, чем движение по градиенту.

Градиентом дифференцируемой функции f(x) в точке х[0] называется n-мерный вектор f(x[0]), компоненты которого являются частными производными функции f(х), вычисленными в точке х[0], т. е.

f'(x[0]) = (дf(х[0])/дх1, …, дf(х[0])/дхn)T.

Этот вектор перпендикулярен к плоскости, проведенной через точку х[0] , и касательной к поверхности уровня функции f(x), проходящей через точку х[0] .В каждой точке такой поверхности функция f(x) принимает одинаковое значение. Приравнивая функцию различным постоянным величинам С0, С1, ... , получим серию поверхностей, характеризующих ее топологию

Вектор-градиент направлен в сторону наискорейшего возрастания функции в данной точке. Вектор, противоположный градиенту (-f’(х[0])), называется антиградиентом и направлен в сторону наискорейшего убывания функции. В точке минимума градиент функции равен нулю. На свойствах градиента основаны методы первого порядка, называемые также градиентным и методами минимизации. Использование этих методов в общем случае позволяет определить точку локального минимума функции.

Очевидно, что если нет дополнительной информации, то из начальной точки х[0] разумно перейти в точку х [1], лежащую в направлении антиградиента - наискорейшего убывания функции. Выбирая в качестве направления спуска р[k] антиградиент -f’(х[k]) в точке х[k], получаем итерационный процесс вида

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11




Новости
Мои настройки


   рефераты скачать  Наверх  рефераты скачать  

© 2009 Все права защищены.