《指尖大冒险》SNS,概率需要分布均匀

时间:2019-09-30 15:31来源:澳门美高梅游戏
掉落相邻及同一y轴方向上的障碍阶砖 对于第一个问题,我们理所当然地想到从底层逻辑上的无障碍数组和障碍数组入手:判断障碍阶砖是否相邻,可以通过同一个下标位置上的障碍数

掉落相邻及同一y轴方向上的障碍阶砖

对于第一个问题,我们理所当然地想到从底层逻辑上的无障碍数组和障碍数组入手:判断障碍阶砖是否相邻,可以通过同一个下标位置上的障碍数组值是否为1,若为1那么该障碍阶砖与当前末端路径的阶砖相邻。

但是,以此来判断远处的障碍阶砖是否是在同一 y 轴方向上则变得很麻烦,需要对数组进行多次遍历迭代来推算。

而经过对渲染后的阶梯层观察,我们可以直接通过 y 轴位置是否相等来解决,如下图所示。

 

图片 1

掉落相邻及同一 y 轴方向上的障碍阶砖

因为不管是来自相邻的,还是同一 y 轴方向上的无障碍阶砖,它们的 y 轴位置值与末端的阶砖是必然相等的,因为在生成的时候使用的是同一个计算公式。

处理的实现用伪代码表示如下:

JavaScript

// 记录被掉落阶砖的y轴位置值 thisStairY = stair.y; // 掉落该无障碍阶砖 stairCon.removeChild(stair); // 掉落同一个y轴位置的障碍阶砖 barrArr = barrCon.children; for i in barrArr barr = barrArr[i], thisBarrY = barr.y; if barr.y >= thisStairY // 在同一个y轴位置或者低于 barrCon.removeChild(barr);

1
2
3
4
5
6
7
8
9
10
11
12
// 记录被掉落阶砖的y轴位置值
thisStairY = stair.y;
// 掉落该无障碍阶砖
stairCon.removeChild(stair);
// 掉落同一个y轴位置的障碍阶砖
barrArr = barrCon.children;
for i in barrArr
  barr = barrArr[i],
  thisBarrY = barr.y;
  if barr.y >= thisStairY // 在同一个y轴位置或者低于
    barrCon.removeChild(barr);
红包/(单位元) 概率
0.01-1 40%
1-2 25%
2-3 20%
3-5 10%
5-10 5%

3、Markov Chain Monte Carlo

对于给定的概率分布p(x),我们希望能有便捷的方式生成它对应的样本,由于马尔可夫链能够收敛到平稳分布,于是一个很漂亮的想法是:如果我们能构造一个转移矩阵伪P的马尔可夫链,使得该马尔可夫链的平稳分布恰好是p(x),那么我们从任何一个初始状态x0出发沿着马尔可夫链转移,得到一个转移序列x0,x1,x2,....xn,xn+1,如果马尔可夫链在第n步已经收敛了,于是我们就得到了p(x)的样本xn,xn+1....

好了,有了这样的思想,我们怎么才能构造一个转移矩阵,使得马尔可夫链最终能收敛即平稳分布恰好是我们想要的分布p(x)呢?我们主要使用的还是我们的细致平稳条件(Detailed Balance),再来回顾一下:

图片 2

假设我们已经又一个转移矩阵为Q的马尔可夫链(q(i,j)表示从状态i转移到状态j的概率),显然通常情况下:

图片 3

也就是细致平稳条件不成立,所以p(x)不太可能是这个马尔可夫链的平稳分布,我们可否对马尔可夫链做一个改造,使得细致平稳条件成立呢?比如我们引入一个α(i,j),从而使得:

图片 4

那么问题又来了,取什么样的α(i,j)可以使上等式成立呢?最简单的,按照对称性:

图片 5

于是灯饰就成立了,所以有:

图片 6

于是我们把原来具有转移矩阵Q的一个很普通的马尔可夫链,改造为了具有转移矩阵Q'的马尔可夫链,而Q'恰好满足细致平稳条件,由此马尔可夫链Q'的平稳分布就是p(x)!

在改造Q的过程中引入的α(i,j)称为接受率,物理意义可以理解为在原来的马尔可夫链上,从状态i以q(i,j)的概率跳转到状态j的时候,我们以α(i,j)的概率接受这个转移,于是得到新的马尔可夫链Q'的转移概率q(i,j)α(i,j)。

图片 7

假设我们已经又一个转移矩阵Q,对应的元素为q(i,j),把上面的过程整理一下,我们就得到了如下的用于采样概率分布p(x)的算法:

图片 8

以上的MCMC算法已经做了很漂亮的工作了,不过它有一个小问题,马尔可夫链Q在转移的过程中接受率α(i,j)可能偏小,这样采样的话容易在原地踏步,拒绝大量的跳转,这是的马尔可夫链便利所有的状态空间要花费太长的时间,收敛到平稳分布p(x)的速度太慢,有没有办法提升一些接受率呢?当然有办法,把α(i,j)和α(j,i)同比例放大,不打破细致平稳条件就好了呀,但是我们又不能无限的放大,我们可以使得上面两个数中最大的一个放大到1,这样我们就提高了采样中的跳转接受率,我们取:

图片 9

于是经过这么微小的改造,我们就得到了Metropolis-Hastings算法,该算法的步骤如下:

图片 10

后言

为什么笔者要选择这几点核心内容来剖析呢?
因为这是我们经常在游戏开发中经常会遇到的问题:

  • 怎样处理游戏背景循环?
  • 有 N 类物件,设第 i 类物件的出现概率为 P(X=i) ,如何实现产生满足这样概率分布的随机变量 X ?

而且,对于阶梯自动掉落的技术点开发解决,也能够让我们认识到,游戏开发问题的解决可以从视觉层面以及逻辑底层两方面考虑,学会转一个角度思考,从而将问题解决简单化。

这是本文希望能够给大家在游戏开发方面带来一些启发与思考的所在。最后,还是老话,行文仓促,若错漏之处还望指正,若有更好的想法,欢迎留言交流讨论!

另外,本文同时发布在「H5游戏开发」专栏,如果你对该方面的系列文章感兴趣,欢迎关注我们的专栏。

三、Alias Method

算法思路:Alias Method将每种概率当做一列,该算法最终的结果是要构造拼装出一个每一列合都为1的矩形,若每一列最后都要为1,那么要将所有元素都乘以5(概率类型的数量)。

图片 11

Alias Method

此时会有概率大于1的和小于1的,接下来就是构造出某种算法用大于1的补足小于1的,使每种概率最后都为1,注意,这里要遵循一个限制:每列至多是两种概率的组合。

最终,我们得到了两个数组,一个是在下面原始的prob数组[0.75,0.25,0.5,0.25,1],另外就是在上面补充的Alias数组,其值代表填充的那一列的序号索引,(如果这一列上不需填充,那么就是NULL),[4,4,0,1,NULL]。当然,最终的结果可能不止一种,你也可能得到其他结果。

prob[] = [0.75,0.25,0.5,0.25,1]
Alias[] = [4,4,0,1,NULL] (记录非原色的下标)
根据Prob和Alias获取其中一个红包区间。
随机产生一列C,再随机产生一个数R,通过与Prob[C]比较,R较大则返回C,反之返回Alias[C]。

//原概率与红包区间
per[] = {0.25,0.2,0.1,0.05,0.4}
moneyStr[] = {1-2,2-3,3-5,5-10,0.01-1}

举例验证下,比如取第二列,让prob[1]的值与一个随机小数f比较,如果f小于prob[1],那么结果就是2-3元,否则就是Alias[1],即4。

我们可以来简单验证一下,比如随机到第二列的概率是0.2,得到第三列下半部分的概率为0.2 * 0.25,记得在第四列还有它的一部分,那里的概率为0.2 * (1-0.25),两者相加最终的结果还是0.2 * 0.25 + 0.2 * (1-0.25) = 0.2,符合原来第二列的概率per[1]。

import java.util.*;
import java.util.concurrent.atomic.AtomicInteger;

public class AliasMethod {
    /* The random number generator used to sample from the distribution. */
    private final Random random;

    /* The probability and alias tables. */
    private final int[] alias;
    private final double[] probability;

    /**
     * Constructs a new AliasMethod to sample from a discrete distribution and
     * hand back outcomes based on the probability distribution.
     * <p/>
     * Given as input a list of probabilities corresponding to outcomes 0, 1,
     * ..., n - 1, this constructor creates the probability and alias tables
     * needed to efficiently sample from this distribution.
     *
     * @param probabilities The list of probabilities.
     */
    public AliasMethod(List<Double> probabilities) {
        this(probabilities, new Random());
    }

    /**
     * Constructs a new AliasMethod to sample from a discrete distribution and
     * hand back outcomes based on the probability distribution.
     * <p/>
     * Given as input a list of probabilities corresponding to outcomes 0, 1,
     * ..., n - 1, along with the random number generator that should be used
     * as the underlying generator, this constructor creates the probability
     * and alias tables needed to efficiently sample from this distribution.
     *
     * @param probabilities The list of probabilities.
     * @param random        The random number generator
     */
    public AliasMethod(List<Double> probabilities, Random random) {
        /* Begin by doing basic structural checks on the inputs. */
        if (probabilities == null || random == null)
            throw new NullPointerException();
        if (probabilities.size() == 0)
            throw new IllegalArgumentException("Probability vector must be nonempty.");

        /* Allocate space for the probability and alias tables. */
        probability = new double[probabilities.size()];
        alias = new int[probabilities.size()];

        /* Store the underlying generator. */
        this.random = random;

        /* Compute the average probability and cache it for later use. */
        final double average = 1.0 / probabilities.size();

        /* Make a copy of the probabilities list, since we will be making
         * changes to it.
         */
        probabilities = new ArrayList<Double>(probabilities);

        /* Create two stacks to act as worklists as we populate the tables. */
        Stack<Integer> small = new Stack<Integer>();
        Stack<Integer> large = new Stack<Integer>();

        /* Populate the stacks with the input probabilities. */
        for (int i = 0; i < probabilities.size(); ++i) {
            /* If the probability is below the average probability, then we add
             * it to the small list; otherwise we add it to the large list.
             */
            if (probabilities.get(i) >= average)
                large.push(i);
            else
                small.push(i);
        }

        /* As a note: in the mathematical specification of the algorithm, we
         * will always exhaust the small list before the big list.  However,
         * due to floating point inaccuracies, this is not necessarily true.
         * Consequently, this inner loop (which tries to pair small and large
         * elements) will have to check that both lists aren't empty.
         */
        while (!small.isEmpty() && !large.isEmpty()) {
            /* Get the index of the small and the large probabilities. */
            int less = small.pop();
            int more = large.pop();

            /* These probabilities have not yet been scaled up to be such that
             * 1/n is given weight 1.0.  We do this here instead.
             */
            probability[less] = probabilities.get(less) * probabilities.size();
            alias[less] = more;

            /* Decrease the probability of the larger one by the appropriate
             * amount.
             */
            probabilities.set(more,
                    (probabilities.get(more) + probabilities.get(less)) - average);

            /* If the new probability is less than the average, add it into the
             * small list; otherwise add it to the large list.
             */
            if (probabilities.get(more) >= 1.0 / probabilities.size())
                large.add(more);
            else
                small.add(more);
        }

        /* At this point, everything is in one list, which means that the
         * remaining probabilities should all be 1/n.  Based on this, set them
         * appropriately.  Due to numerical issues, we can't be sure which
         * stack will hold the entries, so we empty both.
         */
        while (!small.isEmpty())
            probability[small.pop()] = 1.0;
        while (!large.isEmpty())
            probability[large.pop()] = 1.0;
    }

    /**
     * Samples a value from the underlying distribution.
     *
     * @return A random value sampled from the underlying distribution.
     */
    public int next() {
        /* Generate a fair die roll to determine which column to inspect. */
        int column = random.nextInt(probability.length);

        /* Generate a biased coin toss to determine which option to pick. */
        boolean coinToss = random.nextDouble() < probability[column];

        /* Based on the outcome, return either the column or its alias. */
       /* Log.i("1234","column="+column);
        Log.i("1234","coinToss="+coinToss);
        Log.i("1234","alias[column]="+coinToss);*/
        return coinToss ? column : alias[column];
    }

    public int[] getAlias() {
        return alias;
    }

    public double[] getProbability() {
        return probability;
    }

    public static void main(String[] args) {
        TreeMap<String, Double> map = new TreeMap<String, Double>();

        map.put("1-2", 0.25);
        map.put("2-3", 0.2);
        map.put("3-5", 0.1);
        map.put("5-10", 0.05);
        map.put("0.01-1", 0.4);

        List<Double> list = new ArrayList<Double>(map.values());
        List<String> gifts = new ArrayList<String>(map.keySet());

        AliasMethod method = new AliasMethod(list);
        for (double value : method.getProbability()){
            System.out.println("," + value);
        }

        for (int value : method.getAlias()){
            System.out.println("," + value);
        }

        Map<String, AtomicInteger> resultMap = new HashMap<String, AtomicInteger>();

        for (int i = 0; i < 100000; i++) {
            int index = method.next();
            String key = gifts.get(index);
            if (!resultMap.containsKey(key)) {
                resultMap.put(key, new AtomicInteger());
            }
            resultMap.get(key).incrementAndGet();
        }
        for (String key : resultMap.keySet()) {
            System.out.println(key + "==" + resultMap.get(key));
        }

    }
}

算法复杂度:预处理O(NlogN),随机数生成O(1),空间复杂度O(2N)。

优缺点:这种算法初始化较复杂,但生成随机结果的时间复杂度为O(1),是一种性能非常好的算法。

2、马尔可夫链

马尔可夫链通俗说就是根据一个转移概率矩阵去转移的随机过程(马尔可夫过程),该随机过程在PageRank算法中也有使用,如下图所示:

图片 12

通俗解释的话,这里的每个圆环代表一个岛屿,比如i到j的概率是pij,每个节点的出度概率之和=1,现在假设要根据这个图去转移,首先我们要把这个图翻译成如下的矩阵:

图片 13

上面的矩阵就是状态转移矩阵,我身处的位置用一个向量表示π=(i,k,j,l)假设我第一次的位置位于i岛屿,即π0=(1,0,0,0),第一次转移,我们用π0乘上状态转移矩阵P,也就是π1 = π0 * P = [pii,pij,pik,pil],也就是说,我们有pii的可能性留在原来的岛屿i,有pij的可能性到达岛屿j...第二次转移是,以第一次的位置为基础的到π2 = π1 * P,依次类推下去。

有那么一种情况,我的位置向量在若干次转移后达到了一个稳定的状态,再转移π向量也不变化了,这个状态称之为平稳分布状态π*(stationary distribution),这个情况需要满足一个重要的条件,就是Detailed Balance

那么什么是Detailed Balance呢?
假设我们构造如下的转移矩阵:
再假设我们的初始向量为π0=(1,0,0),转移1000次以后达到了平稳状态(0.625,0.3125,0.0625)。
所谓的Detailed Balance就是,在平稳状态中:

图片 14

我们用这个式子验证一下x条件是否满足:

图片 15

可以看到Detailed Balance成立。
有了Detailed Balance,马尔可夫链会收敛到平稳分布状态(stationary distribution)。

为什么满足了Detailed Balance条件之后,我们的马尔可夫链就会收敛呢?下面的式子给出了答案:

图片 16

下一个状态是j的概率,等于从各个状态转移到j的概率之和,在经过Detailed Balance条件变换之后,我们发现下一个状态是j刚好等于当前状态是j的概率,所以马尔可夫链就收敛了。

利用随机算法生成随机数组

根据阶梯的生成规律,我们需要建立两个数组。

对于无障碍数组来说,随机数 0、1 的出现概率是均等的,那么我们只需要利用 Math.random()来实现映射,用伪代码表示如下:

JavaScript

// 生成随机数i,min <= i < max function getRandomInt(min, max) { return Math.floor(Math.random() * (max - min) + min); }

1
2
3
4
// 生成随机数i,min <= i < max
function getRandomInt(min, max) {
  return Math.floor(Math.random() * (max - min) + min);
}

JavaScript

// 生成指定长度的0、1随机数数组 arr = []; for i = 0 to len arr.push(getRandomInt(0,2)); return arr;

1
2
3
4
5
// 生成指定长度的0、1随机数数组
arr = [];
for i = 0 to len
  arr.push(getRandomInt(0,2));
return arr;

而对于障碍数组来说,随机数 0、1、2、3 的出现概率分别为:P(0)=50%、P(1)=20%、P(2)=20%、P(3)=10%,是不均等概率的,那么生成无障碍数组的办法便是不适用的。

那如何实现生成这种满足指定非均等概率分布的随机数数组呢?

我们可以利用概率分布转化的理念,将非均等概率分布转化为均等概率分布来进行处理,做法如下:

  1. 建立一个长度为 L 的数组 A ,L 的大小从计算非均等概率的分母的最小公倍数得来。
  2. 根据非均等概率分布 P 的情况,对数组空间分配,分配空间长度为 L * Pi ,用来存储记号值 i 。
  3. 利用满足均等概率分布的随机办法随机生成随机数 s。
  4. 以随机数 s 作为数组 A 下标,可得到满足非均等概率分布 P 的随机数 A[s] ——记号值 i。

我们只要反复执行步骤 4 ,就可得到满足上述非均等概率分布情况的随机数数组——障碍数组。

结合障碍数组生成的需求,其实现步骤如下图所示。

 

图片 17

障碍数组值随机生成过程

用伪代码表示如下:

JavaScript

/ 非均等概率分布Pi P = [0.5, 0.2, 0.2, 0.1]; // 获取最小公倍数 L = getLCM(P); // 建立概率转化数组 A = []; l = 0; for i = 0 to P.length k = L * P[i] + l while l < k A[l] = i; j++; // 获取均等概率分布的随机数 s = Math.floor(Math.random() * L); // 返回满足非均等概率分布的随机数 return A[s];

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
/ 非均等概率分布Pi
P = [0.5, 0.2, 0.2, 0.1];
// 获取最小公倍数
L = getLCM(P);
// 建立概率转化数组
A = [];
l = 0;
for i = 0 to P.length
  k = L * P[i] + l
  while l < k
    A[l] = i;
    j++;
// 获取均等概率分布的随机数
s = Math.floor(Math.random() * L);
// 返回满足非均等概率分布的随机数
return A[s];

对这种做法进行性能分析,其生成随机数的时间复杂度为 O(1) ,但是在初始化数组 A 时可能会出现极端情况,因为其最小公倍数有可能为 100、1000 甚至是达到亿数量级,导致无论是时间上还是空间上占用都极大。

有没有办法可以进行优化这种极端的情况呢?
经过研究,笔者了解到 Alias Method 算法可以解决这种情况。

Alias Method 算法有一种最优的实现方式,称为 Vose’s Alias Method ,其做法简化描述如下:

  1. 根据概率分布,以概率作为高度构造出一个高度为 1(概率为1)的矩形。
  2. 根据构造结果,推导出两个数组 Prob 数组和 Alias 数组。
  3. 在 Prob 数组中随机取其中一值 Prob[i] ,与随机生成的随机小数 k,进行比较大小。
  4. 若 k

 

图片 18

对障碍阶砖分布概率应用 Vose’s Alias Method 算法的数组推导过程

如果有兴趣了解具体详细的算法过程与实现原理,可以阅读 Keith Schwarz 的文章《Darts, Dice, and Coins》。

根据 Keith Schwarz 对 Vose’s Alias Method 算法的性能分析,该算法在初始化数组时的时间复杂度始终是 O(n) ,而且随机生成的时间复杂度在 O(1) ,空间复杂度也始终是 O(n) 。

 

图片 19

两种做法的性能比较(引用 Keith Schwarz 的分析结果)

两种做法对比,明显 Vose’s Alias Method 算法性能更加稳定,更适合非均等概率分布情况复杂,游戏性能要求高的场景。

在 Github 上,@jdiscar 已经对 Vose’s Alias Method 算法进行了很好的实现,你可以到这里学习。

最后,笔者仍选择一开始的做法,而不是 Vose’s Alias Method 算法。因为考虑到在生成障碍数组的游戏需求场景下,其概率是可控的,它并不需要特别考虑概率分布极端的可能性,并且其代码实现难度低、代码量更少。

最近做了一个活动抽奖需求,项目需要控制预算,概率需要分布均匀,这样才能获得所需要的概率结果。
例如抽奖得到红包奖金,而每个奖金的分布都有一定概率:

4、Gibbs采样

对于高维的情形,由于接受率的存在,Metropolis-Hastings算法的效率不够高,能否找到一个转移矩阵Q使得接受率α=1呢?我们从二维的情形入手,假设有一个概率分布p(x,y),考察x坐标相同的两个点A(x1,y1) ,B(x1,y2),我们发现:

图片 20

基于以上等式,我们发现,在x=x1这条平行于y轴的直线上,如果使用条件分布p(y|x1)作为任何两个点之间的转移概率,那么任何两个点之间的转移满足细致平稳条件,同样的,在y=y1这条平行于x轴的直线上,如果使用条件分布p(x|y1) 作为,那么任何两个点之间的转移也满足细致平稳条件。于是我们可以构造平面上任意两点之间的转移概率矩阵Q:

图片 21

有了上面的转移矩阵Q,我们很容易验证对平面上任意两点X,Y,满足细致平稳条件:

图片 22

于是这个二维空间上的马尔可夫链将收敛到平稳分布p(x,y),而这个算法就称为Gibbs Sampling算法,由物理学家Gibbs首先给出的:

图片 23

图片 24

由二维的情形我们很容易推广到高维的情形:

图片 25

图片 26

所以高维空间中的GIbbs 采样算法如下:

图片 27

二、随机生成阶梯的实现

随机生成阶梯是游戏的最核心部分。根据游戏的需求,阶梯由「无障碍物的阶砖」和「有障碍物的阶砖」的组成,并且阶梯的生成是随机性。

二、离散算法

算法思路:离散算法通过概率分布构造几个点[40, 65, 85, 95,100],构造的数组的值就是前面概率依次累加的概率之和。在生成1~100的随机数,看它落在哪个区间,比如50在[40,65]之间,就是类型2。在查找时,可以采用线性查找,或效率更高的二分查找。

//per[] = {40, 65, 85, 95,100}
//moneyStr[] = {0.01-1,1-2,2-3,3-5,5-10}
//获取红包金额
public double getMoney(List<String> moneyStr,List<Integer> per){
        double packet = 0.01;
        //获取概率对应的数组下标
        int key = getProbability(per);
        //获取对应的红包值
        String[] moneys = moneyStr.get(key).split("-");

        if (moneys.length < 2){
            return packet;
        }

        double min = Double.valueOf(moneys[0]);//红包最小值
        double max = Double.valueOf(moneys[1]);//红包最大值

        Random random = new Random();
        packet = min + (max - min) * random.nextInt(10) * 0.1;

        return packet;
 }

//获得概率对应的key
public int getProbability(List<Integer> per){
        int key = -1;
        if (per == null || per.size() == 0){
            return key;
        }

        //100中随机生成一个数
        Random random = new Random();
        int num = random.nextInt(100);

        int i = 0;
        for (int p : per){
            //获取落在该区间的对应key
            if (num < p){
                key = i;
            }
        }

        return key;

    }  

算法复杂度:比一般算法减少占用空间,还可以采用二分法找出R,这样,预处理O(N),随机数生成O(logN),空间复杂度O(N)。

优缺点:比一般算法占用空间减少,空间复杂度O(N)。

1、随机模拟

随机模拟方法有一个很酷的别名是蒙特卡罗方法。这个方法的发展始于20世纪40年代。
统计模拟中有一个很重要的问题就是给定一个概率分布p(x),我们如何在计算机中生成它的样本,一般而言均匀分布的样本是相对容易生成的,通过线性同余发生器可以生成伪随机数,我们用确定性算法生成[0,1]之间的伪随机数序列后,这些序列的各种统计指标和均匀分布Uniform(0,1)的理论计算结果非常接近,这样的伪随机序列就有比较好的统计性质,可以被当成真实的随机数使用。
而我们常见的概率分布,无论是连续的还是离散的分布,都可以基于Uniform(0, 1) 的样本生成,比如正态分布可以通过著名的 Box-Muller变换得到。其他几个著名的连续分布,包括指数分布,Gamma分布,t分布等,都可以通过类似的数学变换得到,不过我们并不是总这么幸运的,当p(x)的形式很复杂,或者p(x)是个高维分布的时候,样本的生成就可能很困难了,此时需要一些更加复杂的随机模拟方法来生成样本,比如MCMC方法和Gibbs采样方法,不过在了解这些方法之前,我们需要首先了解一下马尔可夫链及其平稳分布。

编辑:澳门美高梅游戏 本文来源:《指尖大冒险》SNS,概率需要分布均匀

关键词: