diff options
Diffstat (limited to 'llvm/test/CodeGen/SystemZ/frame-07.ll')
-rw-r--r-- | llvm/test/CodeGen/SystemZ/frame-07.ll | 64 |
1 files changed, 32 insertions, 32 deletions
diff --git a/llvm/test/CodeGen/SystemZ/frame-07.ll b/llvm/test/CodeGen/SystemZ/frame-07.ll index 1faed4c73c7..253bbc26c1f 100644 --- a/llvm/test/CodeGen/SystemZ/frame-07.ll +++ b/llvm/test/CodeGen/SystemZ/frame-07.ll @@ -68,22 +68,22 @@ define void @f1(double *%ptr, i64 %x) { %y = alloca [486 x i64], align 8 %elem = getelementptr inbounds [486 x i64], [486 x i64]* %y, i64 0, i64 0 store volatile i64 %x, i64* %elem - %l0 = load volatile double *%ptr - %l1 = load volatile double *%ptr - %l2 = load volatile double *%ptr - %l3 = load volatile double *%ptr - %l4 = load volatile double *%ptr - %l5 = load volatile double *%ptr - %l6 = load volatile double *%ptr - %l7 = load volatile double *%ptr - %l8 = load volatile double *%ptr - %l9 = load volatile double *%ptr - %l10 = load volatile double *%ptr - %l11 = load volatile double *%ptr - %l12 = load volatile double *%ptr - %l13 = load volatile double *%ptr - %l14 = load volatile double *%ptr - %l15 = load volatile double *%ptr + %l0 = load volatile double , double *%ptr + %l1 = load volatile double , double *%ptr + %l2 = load volatile double , double *%ptr + %l3 = load volatile double , double *%ptr + %l4 = load volatile double , double *%ptr + %l5 = load volatile double , double *%ptr + %l6 = load volatile double , double *%ptr + %l7 = load volatile double , double *%ptr + %l8 = load volatile double , double *%ptr + %l9 = load volatile double , double *%ptr + %l10 = load volatile double , double *%ptr + %l11 = load volatile double , double *%ptr + %l12 = load volatile double , double *%ptr + %l13 = load volatile double , double *%ptr + %l14 = load volatile double , double *%ptr + %l15 = load volatile double , double *%ptr %add0 = fadd double %l0, %l0 %add1 = fadd double %l1, %add0 %add2 = fadd double %l2, %add1 @@ -197,22 +197,22 @@ define void @f2(double *%ptr, i64 %x) { %y = alloca [65510 x i64], align 8 %elem = getelementptr inbounds [65510 x i64], [65510 x i64]* %y, i64 0, i64 0 store volatile i64 %x, i64* %elem - %l0 = load volatile double *%ptr - %l1 = load volatile double *%ptr - %l2 = load volatile double *%ptr - %l3 = load volatile double *%ptr - %l4 = load volatile double *%ptr - %l5 = load volatile double *%ptr - %l6 = load volatile double *%ptr - %l7 = load volatile double *%ptr - %l8 = load volatile double *%ptr - %l9 = load volatile double *%ptr - %l10 = load volatile double *%ptr - %l11 = load volatile double *%ptr - %l12 = load volatile double *%ptr - %l13 = load volatile double *%ptr - %l14 = load volatile double *%ptr - %l15 = load volatile double *%ptr + %l0 = load volatile double , double *%ptr + %l1 = load volatile double , double *%ptr + %l2 = load volatile double , double *%ptr + %l3 = load volatile double , double *%ptr + %l4 = load volatile double , double *%ptr + %l5 = load volatile double , double *%ptr + %l6 = load volatile double , double *%ptr + %l7 = load volatile double , double *%ptr + %l8 = load volatile double , double *%ptr + %l9 = load volatile double , double *%ptr + %l10 = load volatile double , double *%ptr + %l11 = load volatile double , double *%ptr + %l12 = load volatile double , double *%ptr + %l13 = load volatile double , double *%ptr + %l14 = load volatile double , double *%ptr + %l15 = load volatile double , double *%ptr %add0 = fadd double %l0, %l0 %add1 = fadd double %l1, %add0 %add2 = fadd double %l2, %add1 |