请建议在这些领域从零到专业的阅读计划。这些站点的定义非常模糊,您不想在这些区域游泳。建议不要依赖特定的技术或编程语言。有一种直观的理解,这是苏联时代改名的数学,仅此而已。谢谢你。
Максим Фисман
Asked:
2022-08-31 03:16:28 +0800 CST
我正在使用AI minimax算法来玩跳棋。
为了获得最佳性能,我使用 alpha-beta 剪辑。
由于在检查器中很难预测在特定位置需要什么深度的搜索,我想使用迭代加深:搜索首先发生在深度 1,然后是 2、3,依此类推。
据我了解,迭代加深的意思是,当计算到n的深度时,我们使用之前执行的计算到n-1的深度,其结果存储(在哈希表/文件中...... )
但是,我并不完全清楚我需要在这个哈希表中存储什么?我应该保存在 minimax 过程中出现的所有位置还是只保存起始深度的位置?
现在我的程序只是按顺序遍历所有深度,而不以任何方式使用先前较不深度计算的结果。
class AI:
def get_best_move (self, board, time_limit):
self.analysed_positions = 0
self.best_move = None
self.calculation_process = True
calculation_process = threading.Thread(target=self.iterative_deepening_minimax, args=(board, ))
calculation_process.start()
calculation_process.join(time_limit)
self.calculation_process = False
return self.best_move
def iterative_deepening_minimax (self, board):
for depth in range(2, 30):
if self.calculation_process:
# Начинаем поиск на глубине depth, который возвращает лучший ход в этой позиции
self.best_move = self.minimax(board, depth, -INFINITY, INFINITY, board.whitesMove)[1]
else:
break
def minimax (self, board, depth, alpha, beta, maximizingPlayer):
if self.calculation_process == False:
return (0, None)
board.find_all_moves()
game_state = board.get_game_state()
if game_state != STATE_OK:
self.analysed_positions += 1
return (INFINITY + depth, None) if game_state == WHITE_WIN else (-INFINITY - depth, None)
if depth == 0:
self.analysed_positions += 1
eval = self.evaluate(board)
return (eval, None)
bestMove = None
if maximizingPlayer:
maxEval = -INFINITY
for move in board.moves:
next_pos = Board(board, search_all_moves=False)
next_pos.make_move(move)
next_pos.change_turn()
eval = self.minimax(next_pos, depth - 1, alpha, beta, False)[0]
if eval > maxEval:
maxEval = eval
bestMove = move
# Pruning
alpha = max(alpha, eval)
if beta <= alpha:
break
return (maxEval, bestMove)
else:
minEval = INFINITY
for move in board.moves:
next_pos = Board(board, search_all_moves=False)
next_pos.make_move(move)
next_pos.change_turn()
eval = self.minimax(next_pos, depth-1, alpha, beta, True)[0]
if eval < minEval:
minEval = eval
bestMove = move
# Pruning
beta = min(beta, eval)
if beta <= alpha:
break
return (minEval, bestMove)
# Возвращает статическую оценку позиции
def evaluate():
...
Фомина Виктория
Asked:
2020-08-18 16:39:43 +0800 CST
是否有任何项目示例不使用一个训练模型,而是使用整个链。或者一个更复杂的架构,由作为一个整体的独立模型组成?