Расширенная минимизация цепной функции Марковского рафтери с использованием Python

1

Я работаю над расширенной моделью Raftery, которая является более общей моделью цепи Маркова более высокого порядка, поскольку мне нужно решить следующую модель линейного программирования с определенными ограничениями.

Ниже приведена функция (link) Linear Programming, которая должна быть минимизирована:

Изображение 174551

при условии:

Изображение 174551

Где векторы "W" и "λ" должны быть решены в уравнении.

Q и X - матрица вероятностей перехода на i-ступенчатой матрице и вероятности стационарного состояния соответственно.

Ниже приведен образец, с которым я работаю:

import numpy as np

one_step_array = np.array([[0.12, 0.75, 0.12],
       [0.42, 0.14, 0.42],
       [0.75, 0.25, 0.0]])

two_step_array = np.array([[0.43, 0.23, 0.33],
       [0.43, 0.44, 0.11],
       [0.20, 0.59, 0.20]])

steady_state = np.array([0.38, 0.39, 0.21])

Q_Arr = np.vstack((np.matmul(one_step_array,steady_state),np.matmul(two_step_array,steady_state))).transpose()

from pulp import *

w1 = LpVariable("w1",0,None)
w2 = LpVariable("w2",0,None)
w3 = LpVariable("W3",0, None)
L1 = LpVariable("L1",0,None)
L2 = LpVariable("L2",0,None)

prob = LpProblem("Problem",LpMinimize)

prob += w1 >= steady_state[0] - Q_Arr[0][0]*L1 - Q_Arr[0][1]*L2
prob += w1 >= -steady_state[0] + Q_Arr[0][0]*L1 + Q_Arr[0][1]*L2

prob += w2 >= steady_state[1] - Q_Arr[1][0]*L1 - Q_Arr[1][1]*L2
prob += w2 >= -steady_state[1] + Q_Arr[1][0]*L1 + Q_Arr[1][1]*L2

prob += w3 >= steady_state[2] - Q_Arr[2][0]*L1 - Q_Arr[2][1]*L2
prob += w3 >= -steady_state[2] + Q_Arr[2][0]*L1 + Q_Arr[2][1]*L2

prob += w1 >= 0
prob += w2 >= 0
prob += w3 >= 0
prob += L1 >= 0
prob += L2 >= 0

prob += L1 + L2 == 1

prob += w1+w2+w3

status = prob.solve(GLPK(msg=0))
LpStatus[status]

print (value(w1))
print (value(w2))
print (value(w3))
print (value(L1))
print (value(L2))

Результат - это (λ1, λ2, w1, w2, w3) = (1,0,0.051,0.027,0.14) вместо (1,0,0.028,0.0071,0.0214), что неверно.

Не могли бы вы сообщить мне, где я ошибаюсь?

  • 0
    Привет Надипинени, добро пожаловать в ТАК! ИМО, это очень помогло бы, если бы вы опубликовали минимальную версию ваших попыток до сих пор и именно там , где это пошло не так и что пошло не так
  • 0
    @en_Knight Я хотел бы представить вам мои попытки. Тем не менее, я не знаю, что делать дальше. Любое предложение будет высоко оценено.
Показать ещё 1 комментарий
Теги:
numpy
scipy
markov-chains
markov-models

1 ответ

0

Спасибо за ваш отзыв и помощь! Я сам смог ответить на этот вопрос. Вот решение:

from pulp import *


Weight_vec = []
Number_of_states = Q_Arr.shape[0]
for x in range(Number_of_states):
    Weight_vec.append('w'+str(x+1))

L1 = LpVariable("L1",0,100)
L2 = LpVariable("L2",0,100)

prob = LpProblem("Problem",LpMinimize)

for s in range(Number_of_states):
    Weight_vec[s] = LpVariable('w'+str(s+1),0,None)
count = 0

for row in Q_Arr:
    prob += steady_state[0] - row[0]*L1 - row[1]*L2 - Weight_vec[count] <= 0
    print (steady_state[0] - row[0]*L1 - row[1]*L2 - Weight_vec[count] <= 0)
    prob += - steady_state[0] + row[0]*L1 + row[1]*L2 - Weight_vec[count] <= 0
    print (- steady_state[0] + row[0]*L1 + row[1]*L2 - Weight_vec[count] <= 0)
    count = count + 1

prob += L1 >= 0
prob += L2 >= 0

prob += L1 + L2 == 1

for s in range(Number_of_states):
    prob += Weight_vec[s] >= 0

#objective
prob += sum(Weight_vec)

status = prob.solve(GLPK(msg=0))
LpStatus[status]

result = []

for s in range(Number_of_states):
    result.append(value(Weight_vec[s]))
result.append(value(L1))
result.append(value(L2))

print (result)

Ещё вопросы

Сообщество Overcoder
Наверх
Меню