diff options
Diffstat (limited to 'llvm/test/Transforms/LoopReroll')
-rw-r--r-- | llvm/test/Transforms/LoopReroll/basic.ll | 60 | ||||
-rw-r--r-- | llvm/test/Transforms/LoopReroll/nonconst_lb.ll | 30 | ||||
-rw-r--r-- | llvm/test/Transforms/LoopReroll/reduction.ll | 28 |
3 files changed, 59 insertions, 59 deletions
diff --git a/llvm/test/Transforms/LoopReroll/basic.ll b/llvm/test/Transforms/LoopReroll/basic.ll index 4ae78270eb8..16a6dc81af7 100644 --- a/llvm/test/Transforms/LoopReroll/basic.ll +++ b/llvm/test/Transforms/LoopReroll/basic.ll @@ -158,42 +158,42 @@ entry: for.body: ; preds = %entry, %for.body %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ] %arrayidx = getelementptr inbounds float, float* %b, i64 %indvars.iv - %0 = load float* %arrayidx, align 4 + %0 = load float, float* %arrayidx, align 4 %mul = fmul float %0, %alpha %arrayidx2 = getelementptr inbounds float, float* %a, i64 %indvars.iv - %1 = load float* %arrayidx2, align 4 + %1 = load float, float* %arrayidx2, align 4 %add = fadd float %1, %mul store float %add, float* %arrayidx2, align 4 %2 = add nsw i64 %indvars.iv, 1 %arrayidx5 = getelementptr inbounds float, float* %b, i64 %2 - %3 = load float* %arrayidx5, align 4 + %3 = load float, float* %arrayidx5, align 4 %mul6 = fmul float %3, %alpha %arrayidx9 = getelementptr inbounds float, float* %a, i64 %2 - %4 = load float* %arrayidx9, align 4 + %4 = load float, float* %arrayidx9, align 4 %add10 = fadd float %4, %mul6 store float %add10, float* %arrayidx9, align 4 %5 = add nsw i64 %indvars.iv, 2 %arrayidx13 = getelementptr inbounds float, float* %b, i64 %5 - %6 = load float* %arrayidx13, align 4 + %6 = load float, float* %arrayidx13, align 4 %mul14 = fmul float %6, %alpha %arrayidx17 = getelementptr inbounds float, float* %a, i64 %5 - %7 = load float* %arrayidx17, align 4 + %7 = load float, float* %arrayidx17, align 4 %add18 = fadd float %7, %mul14 store float %add18, float* %arrayidx17, align 4 %8 = add nsw i64 %indvars.iv, 3 %arrayidx21 = getelementptr inbounds float, float* %b, i64 %8 - %9 = load float* %arrayidx21, align 4 + %9 = load float, float* %arrayidx21, align 4 %mul22 = fmul float %9, %alpha %arrayidx25 = getelementptr inbounds float, float* %a, i64 %8 - %10 = load float* %arrayidx25, align 4 + %10 = load float, float* %arrayidx25, align 4 %add26 = fadd float %10, %mul22 store float %add26, float* %arrayidx25, align 4 %11 = add nsw i64 %indvars.iv, 4 %arrayidx29 = getelementptr inbounds float, float* %b, i64 %11 - %12 = load float* %arrayidx29, align 4 + %12 = load float, float* %arrayidx29, align 4 %mul30 = fmul float %12, %alpha %arrayidx33 = getelementptr inbounds float, float* %a, i64 %11 - %13 = load float* %arrayidx33, align 4 + %13 = load float, float* %arrayidx33, align 4 %add34 = fadd float %13, %mul30 store float %add34, float* %arrayidx33, align 4 %indvars.iv.next = add nuw nsw i64 %indvars.iv, 5 @@ -206,10 +206,10 @@ for.body: ; preds = %entry, %for.body ; CHECK: for.body: ; CHECK: %indvar = phi i64 [ %indvar.next, %for.body ], [ 0, %entry ] ; CHECK: %arrayidx = getelementptr inbounds float, float* %b, i64 %indvar -; CHECK: %0 = load float* %arrayidx, align 4 +; CHECK: %0 = load float, float* %arrayidx, align 4 ; CHECK: %mul = fmul float %0, %alpha ; CHECK: %arrayidx2 = getelementptr inbounds float, float* %a, i64 %indvar -; CHECK: %1 = load float* %arrayidx2, align 4 +; CHECK: %1 = load float, float* %arrayidx2, align 4 ; CHECK: %add = fadd float %1, %mul ; CHECK: store float %add, float* %arrayidx2, align 4 ; CHECK: %indvar.next = add i64 %indvar, 1 @@ -240,57 +240,57 @@ entry: for.body: ; preds = %entry, %for.body %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ] %arrayidx = getelementptr inbounds i32, i32* %ip, i64 %indvars.iv - %0 = load i32* %arrayidx, align 4 + %0 = load i32, i32* %arrayidx, align 4 %idxprom1 = sext i32 %0 to i64 %arrayidx2 = getelementptr inbounds float, float* %b, i64 %idxprom1 - %1 = load float* %arrayidx2, align 4 + %1 = load float, float* %arrayidx2, align 4 %mul = fmul float %1, %alpha %arrayidx4 = getelementptr inbounds float, float* %a, i64 %indvars.iv - %2 = load float* %arrayidx4, align 4 + %2 = load float, float* %arrayidx4, align 4 %add = fadd float %2, %mul store float %add, float* %arrayidx4, align 4 %3 = add nsw i64 %indvars.iv, 1 %arrayidx7 = getelementptr inbounds i32, i32* %ip, i64 %3 - %4 = load i32* %arrayidx7, align 4 + %4 = load i32, i32* %arrayidx7, align 4 %idxprom8 = sext i32 %4 to i64 %arrayidx9 = getelementptr inbounds float, float* %b, i64 %idxprom8 - %5 = load float* %arrayidx9, align 4 + %5 = load float, float* %arrayidx9, align 4 %mul10 = fmul float %5, %alpha %arrayidx13 = getelementptr inbounds float, float* %a, i64 %3 - %6 = load float* %arrayidx13, align 4 + %6 = load float, float* %arrayidx13, align 4 %add14 = fadd float %6, %mul10 store float %add14, float* %arrayidx13, align 4 %7 = add nsw i64 %indvars.iv, 2 %arrayidx17 = getelementptr inbounds i32, i32* %ip, i64 %7 - %8 = load i32* %arrayidx17, align 4 + %8 = load i32, i32* %arrayidx17, align 4 %idxprom18 = sext i32 %8 to i64 %arrayidx19 = getelementptr inbounds float, float* %b, i64 %idxprom18 - %9 = load float* %arrayidx19, align 4 + %9 = load float, float* %arrayidx19, align 4 %mul20 = fmul float %9, %alpha %arrayidx23 = getelementptr inbounds float, float* %a, i64 %7 - %10 = load float* %arrayidx23, align 4 + %10 = load float, float* %arrayidx23, align 4 %add24 = fadd float %10, %mul20 store float %add24, float* %arrayidx23, align 4 %11 = add nsw i64 %indvars.iv, 3 %arrayidx27 = getelementptr inbounds i32, i32* %ip, i64 %11 - %12 = load i32* %arrayidx27, align 4 + %12 = load i32, i32* %arrayidx27, align 4 %idxprom28 = sext i32 %12 to i64 %arrayidx29 = getelementptr inbounds float, float* %b, i64 %idxprom28 - %13 = load float* %arrayidx29, align 4 + %13 = load float, float* %arrayidx29, align 4 %mul30 = fmul float %13, %alpha %arrayidx33 = getelementptr inbounds float, float* %a, i64 %11 - %14 = load float* %arrayidx33, align 4 + %14 = load float, float* %arrayidx33, align 4 %add34 = fadd float %14, %mul30 store float %add34, float* %arrayidx33, align 4 %15 = add nsw i64 %indvars.iv, 4 %arrayidx37 = getelementptr inbounds i32, i32* %ip, i64 %15 - %16 = load i32* %arrayidx37, align 4 + %16 = load i32, i32* %arrayidx37, align 4 %idxprom38 = sext i32 %16 to i64 %arrayidx39 = getelementptr inbounds float, float* %b, i64 %idxprom38 - %17 = load float* %arrayidx39, align 4 + %17 = load float, float* %arrayidx39, align 4 %mul40 = fmul float %17, %alpha %arrayidx43 = getelementptr inbounds float, float* %a, i64 %15 - %18 = load float* %arrayidx43, align 4 + %18 = load float, float* %arrayidx43, align 4 %add44 = fadd float %18, %mul40 store float %add44, float* %arrayidx43, align 4 %indvars.iv.next = add nuw nsw i64 %indvars.iv, 5 @@ -303,13 +303,13 @@ for.body: ; preds = %entry, %for.body ; CHECK: for.body: ; CHECK: %indvar = phi i64 [ %indvar.next, %for.body ], [ 0, %entry ] ; CHECK: %arrayidx = getelementptr inbounds i32, i32* %ip, i64 %indvar -; CHECK: %0 = load i32* %arrayidx, align 4 +; CHECK: %0 = load i32, i32* %arrayidx, align 4 ; CHECK: %idxprom1 = sext i32 %0 to i64 ; CHECK: %arrayidx2 = getelementptr inbounds float, float* %b, i64 %idxprom1 -; CHECK: %1 = load float* %arrayidx2, align 4 +; CHECK: %1 = load float, float* %arrayidx2, align 4 ; CHECK: %mul = fmul float %1, %alpha ; CHECK: %arrayidx4 = getelementptr inbounds float, float* %a, i64 %indvar -; CHECK: %2 = load float* %arrayidx4, align 4 +; CHECK: %2 = load float, float* %arrayidx4, align 4 ; CHECK: %add = fadd float %2, %mul ; CHECK: store float %add, float* %arrayidx4, align 4 ; CHECK: %indvar.next = add i64 %indvar, 1 diff --git a/llvm/test/Transforms/LoopReroll/nonconst_lb.ll b/llvm/test/Transforms/LoopReroll/nonconst_lb.ll index 45a67016d50..5effa42d07c 100644 --- a/llvm/test/Transforms/LoopReroll/nonconst_lb.ll +++ b/llvm/test/Transforms/LoopReroll/nonconst_lb.ll @@ -18,25 +18,25 @@ entry: for.body: ; preds = %entry, %for.body %i.035 = phi i32 [ %add18, %for.body ], [ %m, %entry ] %arrayidx = getelementptr inbounds i32, i32* %B, i32 %i.035 - %0 = load i32* %arrayidx, align 4 + %0 = load i32, i32* %arrayidx, align 4 %mul = shl nsw i32 %0, 2 %arrayidx2 = getelementptr inbounds i32, i32* %A, i32 %i.035 store i32 %mul, i32* %arrayidx2, align 4 %add3 = add nsw i32 %i.035, 1 %arrayidx4 = getelementptr inbounds i32, i32* %B, i32 %add3 - %1 = load i32* %arrayidx4, align 4 + %1 = load i32, i32* %arrayidx4, align 4 %mul5 = shl nsw i32 %1, 2 %arrayidx7 = getelementptr inbounds i32, i32* %A, i32 %add3 store i32 %mul5, i32* %arrayidx7, align 4 %add8 = add nsw i32 %i.035, 2 %arrayidx9 = getelementptr inbounds i32, i32* %B, i32 %add8 - %2 = load i32* %arrayidx9, align 4 + %2 = load i32, i32* %arrayidx9, align 4 %mul10 = shl nsw i32 %2, 2 %arrayidx12 = getelementptr inbounds i32, i32* %A, i32 %add8 store i32 %mul10, i32* %arrayidx12, align 4 %add13 = add nsw i32 %i.035, 3 %arrayidx14 = getelementptr inbounds i32, i32* %B, i32 %add13 - %3 = load i32* %arrayidx14, align 4 + %3 = load i32, i32* %arrayidx14, align 4 %mul15 = shl nsw i32 %3, 2 %arrayidx17 = getelementptr inbounds i32, i32* %A, i32 %add13 store i32 %mul15, i32* %arrayidx17, align 4 @@ -61,7 +61,7 @@ for.end: ; preds = %for.body, %entry ; CHECK: %indvar = phi i32 [ %indvar.next, %for.body ], [ 0, %for.body.preheader ] ; CHECK: %6 = add i32 %m, %indvar ; CHECK: %arrayidx = getelementptr inbounds i32, i32* %B, i32 %6 -; CHECK: %7 = load i32* %arrayidx, align 4 +; CHECK: %7 = load i32, i32* %arrayidx, align 4 ; CHECK: %mul = shl nsw i32 %7, 2 ; CHECK: %arrayidx2 = getelementptr inbounds i32, i32* %A, i32 %6 ; CHECK: store i32 %mul, i32* %arrayidx2, align 4 @@ -89,33 +89,33 @@ entry: for.body: ; preds = %entry, %for.body %i.056 = phi i32 [ %add27, %for.body ], [ %rem, %entry ] %arrayidx = getelementptr inbounds float, float* %dy, i32 %i.056 - %0 = load float* %arrayidx, align 4 + %0 = load float, float* %arrayidx, align 4 %arrayidx1 = getelementptr inbounds float, float* %dx, i32 %i.056 - %1 = load float* %arrayidx1, align 4 + %1 = load float, float* %arrayidx1, align 4 %mul = fmul float %1, %da %add = fadd float %0, %mul store float %add, float* %arrayidx, align 4 %add3 = add nsw i32 %i.056, 1 %arrayidx4 = getelementptr inbounds float, float* %dy, i32 %add3 - %2 = load float* %arrayidx4, align 4 + %2 = load float, float* %arrayidx4, align 4 %arrayidx6 = getelementptr inbounds float, float* %dx, i32 %add3 - %3 = load float* %arrayidx6, align 4 + %3 = load float, float* %arrayidx6, align 4 %mul7 = fmul float %3, %da %add8 = fadd float %2, %mul7 store float %add8, float* %arrayidx4, align 4 %add11 = add nsw i32 %i.056, 2 %arrayidx12 = getelementptr inbounds float, float* %dy, i32 %add11 - %4 = load float* %arrayidx12, align 4 + %4 = load float, float* %arrayidx12, align 4 %arrayidx14 = getelementptr inbounds float, float* %dx, i32 %add11 - %5 = load float* %arrayidx14, align 4 + %5 = load float, float* %arrayidx14, align 4 %mul15 = fmul float %5, %da %add16 = fadd float %4, %mul15 store float %add16, float* %arrayidx12, align 4 %add19 = add nsw i32 %i.056, 3 %arrayidx20 = getelementptr inbounds float, float* %dy, i32 %add19 - %6 = load float* %arrayidx20, align 4 + %6 = load float, float* %arrayidx20, align 4 %arrayidx22 = getelementptr inbounds float, float* %dx, i32 %add19 - %7 = load float* %arrayidx22, align 4 + %7 = load float, float* %arrayidx22, align 4 %mul23 = fmul float %7, %da %add24 = fadd float %6, %mul23 store float %add24, float* %arrayidx20, align 4 @@ -141,9 +141,9 @@ for.end: ; preds = %for.body, %entry ; CHECK: %indvar = phi i32 [ %indvar.next, %for.body ], [ 0, %for.body.preheader ] ; CHECK: %6 = add i32 %rem, %indvar ; CHECK: %arrayidx = getelementptr inbounds float, float* %dy, i32 %6 -; CHECK: %7 = load float* %arrayidx, align 4 +; CHECK: %7 = load float, float* %arrayidx, align 4 ; CHECK: %arrayidx1 = getelementptr inbounds float, float* %dx, i32 %6 -; CHECK: %8 = load float* %arrayidx1, align 4 +; CHECK: %8 = load float, float* %arrayidx1, align 4 ; CHECK: %mul = fmul float %8, %da ; CHECK: %add = fadd float %7, %mul ; CHECK: store float %add, float* %arrayidx, align 4 diff --git a/llvm/test/Transforms/LoopReroll/reduction.ll b/llvm/test/Transforms/LoopReroll/reduction.ll index 559f4566e5b..191518514b8 100644 --- a/llvm/test/Transforms/LoopReroll/reduction.ll +++ b/llvm/test/Transforms/LoopReroll/reduction.ll @@ -10,19 +10,19 @@ for.body: ; preds = %entry, %for.body %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ] %r.029 = phi i32 [ 0, %entry ], [ %add12, %for.body ] %arrayidx = getelementptr inbounds i32, i32* %x, i64 %indvars.iv - %0 = load i32* %arrayidx, align 4 + %0 = load i32, i32* %arrayidx, align 4 %add = add nsw i32 %0, %r.029 %1 = or i64 %indvars.iv, 1 %arrayidx3 = getelementptr inbounds i32, i32* %x, i64 %1 - %2 = load i32* %arrayidx3, align 4 + %2 = load i32, i32* %arrayidx3, align 4 %add4 = add nsw i32 %add, %2 %3 = or i64 %indvars.iv, 2 %arrayidx7 = getelementptr inbounds i32, i32* %x, i64 %3 - %4 = load i32* %arrayidx7, align 4 + %4 = load i32, i32* %arrayidx7, align 4 %add8 = add nsw i32 %add4, %4 %5 = or i64 %indvars.iv, 3 %arrayidx11 = getelementptr inbounds i32, i32* %x, i64 %5 - %6 = load i32* %arrayidx11, align 4 + %6 = load i32, i32* %arrayidx11, align 4 %add12 = add nsw i32 %add8, %6 %indvars.iv.next = add nuw nsw i64 %indvars.iv, 4 %7 = trunc i64 %indvars.iv.next to i32 @@ -35,7 +35,7 @@ for.body: ; preds = %entry, %for.body ; CHECK: %indvar = phi i64 [ %indvar.next, %for.body ], [ 0, %entry ] ; CHECK: %r.029 = phi i32 [ 0, %entry ], [ %add, %for.body ] ; CHECK: %arrayidx = getelementptr inbounds i32, i32* %x, i64 %indvar -; CHECK: %0 = load i32* %arrayidx, align 4 +; CHECK: %0 = load i32, i32* %arrayidx, align 4 ; CHECK: %add = add nsw i32 %0, %r.029 ; CHECK: %indvar.next = add i64 %indvar, 1 ; CHECK: %exitcond = icmp eq i64 %indvar, 399 @@ -55,19 +55,19 @@ for.body: ; preds = %entry, %for.body %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ] %r.029 = phi float [ 0.0, %entry ], [ %add12, %for.body ] %arrayidx = getelementptr inbounds float, float* %x, i64 %indvars.iv - %0 = load float* %arrayidx, align 4 + %0 = load float, float* %arrayidx, align 4 %add = fadd float %0, %r.029 %1 = or i64 %indvars.iv, 1 %arrayidx3 = getelementptr inbounds float, float* %x, i64 %1 - %2 = load float* %arrayidx3, align 4 + %2 = load float, float* %arrayidx3, align 4 %add4 = fadd float %add, %2 %3 = or i64 %indvars.iv, 2 %arrayidx7 = getelementptr inbounds float, float* %x, i64 %3 - %4 = load float* %arrayidx7, align 4 + %4 = load float, float* %arrayidx7, align 4 %add8 = fadd float %add4, %4 %5 = or i64 %indvars.iv, 3 %arrayidx11 = getelementptr inbounds float, float* %x, i64 %5 - %6 = load float* %arrayidx11, align 4 + %6 = load float, float* %arrayidx11, align 4 %add12 = fadd float %add8, %6 %indvars.iv.next = add nuw nsw i64 %indvars.iv, 4 %7 = trunc i64 %indvars.iv.next to i32 @@ -80,7 +80,7 @@ for.body: ; preds = %entry, %for.body ; CHECK: %indvar = phi i64 [ %indvar.next, %for.body ], [ 0, %entry ] ; CHECK: %r.029 = phi float [ 0.000000e+00, %entry ], [ %add, %for.body ] ; CHECK: %arrayidx = getelementptr inbounds float, float* %x, i64 %indvar -; CHECK: %0 = load float* %arrayidx, align 4 +; CHECK: %0 = load float, float* %arrayidx, align 4 ; CHECK: %add = fadd float %0, %r.029 ; CHECK: %indvar.next = add i64 %indvar, 1 ; CHECK: %exitcond = icmp eq i64 %indvar, 399 @@ -100,19 +100,19 @@ for.body: ; preds = %entry, %for.body %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ] %r.029 = phi i32 [ 0, %entry ], [ %add12, %for.body ] %arrayidx = getelementptr inbounds i32, i32* %x, i64 %indvars.iv - %0 = load i32* %arrayidx, align 4 + %0 = load i32, i32* %arrayidx, align 4 %add = add nsw i32 %0, %0 %1 = or i64 %indvars.iv, 1 %arrayidx3 = getelementptr inbounds i32, i32* %x, i64 %1 - %2 = load i32* %arrayidx3, align 4 + %2 = load i32, i32* %arrayidx3, align 4 %add4 = add nsw i32 %add, %2 %3 = or i64 %indvars.iv, 2 %arrayidx7 = getelementptr inbounds i32, i32* %x, i64 %3 - %4 = load i32* %arrayidx7, align 4 + %4 = load i32, i32* %arrayidx7, align 4 %add8 = add nsw i32 %add4, %4 %5 = or i64 %indvars.iv, 3 %arrayidx11 = getelementptr inbounds i32, i32* %x, i64 %5 - %6 = load i32* %arrayidx11, align 4 + %6 = load i32, i32* %arrayidx11, align 4 %add12 = add nsw i32 %add8, %6 %indvars.iv.next = add nuw nsw i64 %indvars.iv, 4 %7 = trunc i64 %indvars.iv.next to i32 |