diff options
author | Ulrich Weigand <ulrich.weigand@de.ibm.com> | 2018-07-20 12:12:10 +0000 |
---|---|---|
committer | Ulrich Weigand <ulrich.weigand@de.ibm.com> | 2018-07-20 12:12:10 +0000 |
commit | 9dd23b8433d59c516eac0feeef793a40f014cd08 (patch) | |
tree | 7d97d4a227ae4c02e8e09684029d3a2a994953c4 /llvm/test/CodeGen/SystemZ/addr-02.ll | |
parent | 57743883f11662433c7fe13bf4d59f0fca0e2d33 (diff) | |
download | bcm5719-llvm-9dd23b8433d59c516eac0feeef793a40f014cd08.tar.gz bcm5719-llvm-9dd23b8433d59c516eac0feeef793a40f014cd08.zip |
[SystemZ] Test case formatting fixes
Fix systematically wrong whitespace from a prior automated change.
NFC.
llvm-svn: 337542
Diffstat (limited to 'llvm/test/CodeGen/SystemZ/addr-02.ll')
-rw-r--r-- | llvm/test/CodeGen/SystemZ/addr-02.ll | 16 |
1 files changed, 8 insertions, 8 deletions
diff --git a/llvm/test/CodeGen/SystemZ/addr-02.ll b/llvm/test/CodeGen/SystemZ/addr-02.ll index 7e9b2f18ef8..680d9c97b29 100644 --- a/llvm/test/CodeGen/SystemZ/addr-02.ll +++ b/llvm/test/CodeGen/SystemZ/addr-02.ll @@ -11,7 +11,7 @@ define void @f1(i64 %addr, i64 %index, i8 **%dst) { ; CHECK: br %r14 %add = add i64 %addr, %index %ptr = inttoptr i64 %add to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -24,7 +24,7 @@ define void @f2(i64 %addr, i64 %index, i8 **%dst) { %add1 = add i64 %addr, %index %add2 = add i64 %add1, 100 %ptr = inttoptr i64 %add2 to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -37,7 +37,7 @@ define void @f3(i64 %addr, i64 %index, i8 **%dst) { %add1 = add i64 %addr, 100 %add2 = add i64 %add1, %index %ptr = inttoptr i64 %add2 to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -50,7 +50,7 @@ define void @f4(i64 %addr, i64 %index, i8 **%dst) { %add1 = add i64 %addr, %index %add2 = sub i64 %add1, 100 %ptr = inttoptr i64 %add2 to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -63,7 +63,7 @@ define void @f5(i64 %addr, i64 %index, i8 **%dst) { %add1 = sub i64 %addr, 100 %add2 = add i64 %add1, %index %ptr = inttoptr i64 %add2 to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -78,7 +78,7 @@ define void @f6(i64 %addr, i64 %index, i8 **%dst) { %or = or i64 %aligned, 6 %add = add i64 %or, %index %ptr = inttoptr i64 %add to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -92,7 +92,7 @@ define void @f7(i64 %addr, i64 %index, i8 **%dst) { %or = or i64 %addr, 6 %add = add i64 %or, %index %ptr = inttoptr i64 %add to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } @@ -110,7 +110,7 @@ define void @f8(i64 %addr, i64 %index, i8 **%dst) { %add = add i64 %aligned, %index %or = or i64 %add, 6 %ptr = inttoptr i64 %or to i8 * - %a = load volatile i8 , i8 *%ptr + %a = load volatile i8, i8 *%ptr store volatile i8 *%ptr, i8 **%dst ret void } |