summaryrefslogtreecommitdiffstats
path: root/llvm/test/CodeGen/SystemZ/frame-06.ll
diff options
context:
space:
mode:
authorUlrich Weigand <ulrich.weigand@de.ibm.com>2018-07-20 12:12:10 +0000
committerUlrich Weigand <ulrich.weigand@de.ibm.com>2018-07-20 12:12:10 +0000
commit9dd23b8433d59c516eac0feeef793a40f014cd08 (patch)
tree7d97d4a227ae4c02e8e09684029d3a2a994953c4 /llvm/test/CodeGen/SystemZ/frame-06.ll
parent57743883f11662433c7fe13bf4d59f0fca0e2d33 (diff)
downloadbcm5719-llvm-9dd23b8433d59c516eac0feeef793a40f014cd08.tar.gz
bcm5719-llvm-9dd23b8433d59c516eac0feeef793a40f014cd08.zip
[SystemZ] Test case formatting fixes
Fix systematically wrong whitespace from a prior automated change. NFC. llvm-svn: 337542
Diffstat (limited to 'llvm/test/CodeGen/SystemZ/frame-06.ll')
-rw-r--r--llvm/test/CodeGen/SystemZ/frame-06.ll76
1 files changed, 38 insertions, 38 deletions
diff --git a/llvm/test/CodeGen/SystemZ/frame-06.ll b/llvm/test/CodeGen/SystemZ/frame-06.ll
index c2aa8af336a..2267ed819c8 100644
--- a/llvm/test/CodeGen/SystemZ/frame-06.ll
+++ b/llvm/test/CodeGen/SystemZ/frame-06.ll
@@ -29,20 +29,20 @@ define void @f1(i64 *%ptr) {
; CHECK: stg {{.*}}, 8(%r2)
; CHECK: lmg %r6, %r15, 48(%r15)
; CHECK: br %r14
- %l0 = load volatile i64 , i64 *%ptr
- %l1 = load volatile i64 , i64 *%ptr
- %l3 = load volatile i64 , i64 *%ptr
- %l4 = load volatile i64 , i64 *%ptr
- %l5 = load volatile i64 , i64 *%ptr
- %l6 = load volatile i64 , i64 *%ptr
- %l7 = load volatile i64 , i64 *%ptr
- %l8 = load volatile i64 , i64 *%ptr
- %l9 = load volatile i64 , i64 *%ptr
- %l10 = load volatile i64 , i64 *%ptr
- %l11 = load volatile i64 , i64 *%ptr
- %l12 = load volatile i64 , i64 *%ptr
- %l13 = load volatile i64 , i64 *%ptr
- %l14 = load volatile i64 , i64 *%ptr
+ %l0 = load volatile i64, i64 *%ptr
+ %l1 = load volatile i64, i64 *%ptr
+ %l3 = load volatile i64, i64 *%ptr
+ %l4 = load volatile i64, i64 *%ptr
+ %l5 = load volatile i64, i64 *%ptr
+ %l6 = load volatile i64, i64 *%ptr
+ %l7 = load volatile i64, i64 *%ptr
+ %l8 = load volatile i64, i64 *%ptr
+ %l9 = load volatile i64, i64 *%ptr
+ %l10 = load volatile i64, i64 *%ptr
+ %l11 = load volatile i64, i64 *%ptr
+ %l12 = load volatile i64, i64 *%ptr
+ %l13 = load volatile i64, i64 *%ptr
+ %l14 = load volatile i64, i64 *%ptr
%add0 = add i64 %l0, %l0
%add1 = add i64 %l1, %add0
%add3 = add i64 %l3, %add1
@@ -97,19 +97,19 @@ define void @f2(i64 *%ptr) {
; CHECK: stg {{.*}}, 8(%r2)
; CHECK: lmg %r7, %r15, 56(%r15)
; CHECK: br %r14
- %l0 = load volatile i64 , i64 *%ptr
- %l1 = load volatile i64 , i64 *%ptr
- %l3 = load volatile i64 , i64 *%ptr
- %l4 = load volatile i64 , i64 *%ptr
- %l5 = load volatile i64 , i64 *%ptr
- %l7 = load volatile i64 , i64 *%ptr
- %l8 = load volatile i64 , i64 *%ptr
- %l9 = load volatile i64 , i64 *%ptr
- %l10 = load volatile i64 , i64 *%ptr
- %l11 = load volatile i64 , i64 *%ptr
- %l12 = load volatile i64 , i64 *%ptr
- %l13 = load volatile i64 , i64 *%ptr
- %l14 = load volatile i64 , i64 *%ptr
+ %l0 = load volatile i64, i64 *%ptr
+ %l1 = load volatile i64, i64 *%ptr
+ %l3 = load volatile i64, i64 *%ptr
+ %l4 = load volatile i64, i64 *%ptr
+ %l5 = load volatile i64, i64 *%ptr
+ %l7 = load volatile i64, i64 *%ptr
+ %l8 = load volatile i64, i64 *%ptr
+ %l9 = load volatile i64, i64 *%ptr
+ %l10 = load volatile i64, i64 *%ptr
+ %l11 = load volatile i64, i64 *%ptr
+ %l12 = load volatile i64, i64 *%ptr
+ %l13 = load volatile i64, i64 *%ptr
+ %l14 = load volatile i64, i64 *%ptr
%add0 = add i64 %l0, %l0
%add1 = add i64 %l1, %add0
%add3 = add i64 %l3, %add1
@@ -160,12 +160,12 @@ define void @f3(i64 *%ptr) {
; CHECK: stg {{.*}}, 8(%r2)
; CHECK: lmg %r14, %r15, 112(%r15)
; CHECK: br %r14
- %l0 = load volatile i64 , i64 *%ptr
- %l1 = load volatile i64 , i64 *%ptr
- %l3 = load volatile i64 , i64 *%ptr
- %l4 = load volatile i64 , i64 *%ptr
- %l5 = load volatile i64 , i64 *%ptr
- %l14 = load volatile i64 , i64 *%ptr
+ %l0 = load volatile i64, i64 *%ptr
+ %l1 = load volatile i64, i64 *%ptr
+ %l3 = load volatile i64, i64 *%ptr
+ %l4 = load volatile i64, i64 *%ptr
+ %l5 = load volatile i64, i64 *%ptr
+ %l14 = load volatile i64, i64 *%ptr
%add0 = add i64 %l0, %l0
%add1 = add i64 %l1, %add0
%add3 = add i64 %l3, %add1
@@ -196,11 +196,11 @@ define void @f4(i64 *%ptr) {
; CHECK-NOT: %r12
; CHECK-NOT: %r13
; CHECK: br %r14
- %l0 = load volatile i64 , i64 *%ptr
- %l1 = load volatile i64 , i64 *%ptr
- %l3 = load volatile i64 , i64 *%ptr
- %l4 = load volatile i64 , i64 *%ptr
- %l5 = load volatile i64 , i64 *%ptr
+ %l0 = load volatile i64, i64 *%ptr
+ %l1 = load volatile i64, i64 *%ptr
+ %l3 = load volatile i64, i64 *%ptr
+ %l4 = load volatile i64, i64 *%ptr
+ %l5 = load volatile i64, i64 *%ptr
%add0 = add i64 %l0, %l0
%add1 = add i64 %l1, %add0
%add3 = add i64 %l3, %add1
OpenPOWER on IntegriCloud