LAPO

Paper Reading——Latent-Variable Advantage-Weight Policy Optimization for Offline RL

[TOC]

概述

  1. 强化学习数据集异构——来自多个数据收集者
    1. 强化概率偏移
  2. 隐变量策略代表更广阔的策略分布

Intro

存在不同状态下多个动作都可以带来高奖励。获取隐空间下的高优势动作采样

例子

多模态数据集:训练数据来自三个任务(1)推物品(2)抓东西(3)打开盒子,现在学习的任务是将一个物品移动到指定地点,通过(1),(2)可以实现。直接在动作空间上学习可能采样到OOD的动作。LAPO建立状态空间的隐变量将产生高奖励的动作映射到一个聚类中心附近,这样保证在聚类中心附近采样可以得到较好的动作。(原始动作空间中产生好奖励的动作可能不在一起)

记号

离线强化学习

Q学习目的是最小化TDerror

价值函数$V(s)=E_{\pi_\theta(a|s)}[Q_\phi(s,a)]$,可以从Q函数中按照策略采样若干动作得到

KL散度进行隐式策略限制

避免经验策略和探索策略相差太多(前提是收集策略足够好)

现实中$\pi_\beta$是位置的,最优策略写成

最大容忍策略差*的常数,将$\pi^的常数,将$\pi^$视为无参数的策略,优化目标变成

期望用MC计算

Latent-Variable Advantage-Weighted Policy Optimization

image-20221002214155524

左图:蓝色表明离线数据中实际的动作分布,显然来自两种不同的动作范式,空色表明AWAC从Offline RL中学习到的动作。

右图:黄色是一种生成强化学习方法生成的动作分布,绿线是LAPO生成的动作分布

主要的挑战

如何刻画不同action mode生成的动作分布

LAPO主要思想

  1. 学习的策略函数基于隐变量和状态的先验分布,记作$\pi_\theta(a|s,z)$
  2. 学习隐策略$\pi_{\psi}(z|s)$

更新策略

  1. 估算每个动作的优势
  2. 在数据集上针对动作进行回归

动作策略学习通过最大化动作数据的带权对数似然,在此基础上添加

  1. $\pi_\theta(a|s,z)$代表动作策略,基于状态和latent variable的后验分布
  2. $q_\psi(z|s,a)$称为均摊变分分布,用于估算状态、动作下隐变量的条件分布
  3. $p(z)$是先验分布

策略评估

估算$A(s,a)$,在整个策略上采样动作

策略提升

需要将z限制在一个范围内

本站访客数人次