|
因此,由于我们用γut表示u组中合格候选人的比例ed在timet离开1- γut不合格ed.然后,TLM中产生良好结果的u组工人的比例遵循递归模型Дut=pH[1- F(cθQ)γut- F(cθU)(1- γut)]+pQF(cθQ)γut(1)+pUF(cθU)(1- γut),其中cθρ=e-1ρ(wt)(pH- pρ)和Дt′=σulДut′+(1- σu)l其中,t′给出最后一次工资更新的时间。在他们的工作中。这个数量与groupreputationπut并不完全一致,它给出了一个(时间间隔平均值)标准化度量,该标准化度量与u组中所有成员的比例成比例,包括那些没有被授予进入技能工作管道的成员,他们正在产生良好的结果。PLM员工的未来预期策略是选择时间、声誉、工资和雇佣阈值相关的概率e用∏t′i进行ort用力(∏t′i)∈ {∏t′}其中索引∏t′所有可能的声誉级别{∏t}和t′跟踪深度推理中参与时间的长度,其中>> t′,这个量可以是V(πt′i)V(πN)=θρ,解决以下动态规划问题V(πt′i,^∏t′,wt)=sup(πt′i)∈[0,1]n(1- λ) [V(πt′+1i,G)[ε(πt′i)(pH- pρ)+pρ]+V(πt′+1i,B)[(1- ε(πt′i))(pH- pρ)+1- pρ]]+πt′i≥^∏t′w其中V(πt′i,G)=V(πt′it′+1t′+1,wt)和V(πt′i,B)=V(πt′it′+1,wt)和t、 wt=wt当代理从时间Tw开始向前看时,工作人员在哪里解决最佳e每个可能声誉∏t′i的ort施加概率ε(∏t′i)∈ {∏t′},高e如果V(πt′i,G)(pH- pρ)≥ eρ(θ)。^∏t′=pH- 自上次工资更新以来的“保守党长度”。t′>0作为rm\'st的声誉略低于该阈值,以确保其不会惩罚发挥高eort是不幸运的和可接受的密码。
|