summaryrefslogtreecommitdiffstats
path: root/llvm/test
diff options
context:
space:
mode:
Diffstat (limited to 'llvm/test')
-rw-r--r--llvm/test/CodeGen/AMDGPU/add3.ll10
-rw-r--r--llvm/test/CodeGen/AMDGPU/reassoc-scalar.ll113
2 files changed, 121 insertions, 2 deletions
diff --git a/llvm/test/CodeGen/AMDGPU/add3.ll b/llvm/test/CodeGen/AMDGPU/add3.ll
index e49f57ca448..08ee318881f 100644
--- a/llvm/test/CodeGen/AMDGPU/add3.ll
+++ b/llvm/test/CodeGen/AMDGPU/add3.ll
@@ -25,6 +25,12 @@ define amdgpu_ps float @add3(i32 %a, i32 %b, i32 %c) {
; V_MAD_U32_U24 is given higher priority.
define amdgpu_ps float @mad_no_add3(i32 %a, i32 %b, i32 %c, i32 %d, i32 %e) {
+; VI-LABEL: mad_no_add3:
+; VI: ; %bb.0:
+; VI-NEXT: v_mad_u32_u24 v0, v0, v1, v4
+; VI-NEXT: v_mad_u32_u24 v0, v2, v3, v0
+; VI-NEXT: ; return to shader part epilog
+;
; GFX9-LABEL: mad_no_add3:
; GFX9: ; %bb.0:
; GFX9-NEXT: v_mad_u32_u24 v0, v0, v1, v4
@@ -54,13 +60,13 @@ define amdgpu_ps float @mad_no_add3(i32 %a, i32 %b, i32 %c, i32 %d, i32 %e) {
define amdgpu_ps float @add3_vgpr_b(i32 inreg %a, i32 %b, i32 inreg %c) {
; VI-LABEL: add3_vgpr_b:
; VI: ; %bb.0:
-; VI-NEXT: v_add_u32_e32 v0, vcc, s2, v0
+; VI-NEXT: s_add_i32 s3, s3, s2
; VI-NEXT: v_add_u32_e32 v0, vcc, s3, v0
; VI-NEXT: ; return to shader part epilog
;
; GFX9-LABEL: add3_vgpr_b:
; GFX9: ; %bb.0:
-; GFX9-NEXT: v_add_u32_e32 v0, s2, v0
+; GFX9-NEXT: s_add_i32 s3, s3, s2
; GFX9-NEXT: v_add_u32_e32 v0, s3, v0
; GFX9-NEXT: ; return to shader part epilog
%x = add i32 %a, %b
diff --git a/llvm/test/CodeGen/AMDGPU/reassoc-scalar.ll b/llvm/test/CodeGen/AMDGPU/reassoc-scalar.ll
new file mode 100644
index 00000000000..32b4a3390ba
--- /dev/null
+++ b/llvm/test/CodeGen/AMDGPU/reassoc-scalar.ll
@@ -0,0 +1,113 @@
+; RUN: llc -mtriple=amdgcn -mcpu=tonga -verify-machineinstrs < %s | FileCheck -check-prefixes=GCN,GFX8 %s
+; RUN: llc -mtriple=amdgcn -mcpu=gfx900 -verify-machineinstrs < %s | FileCheck -check-prefixes=GCN,GFX9 %s
+
+; GCN-LABEL: reassoc_i32:
+; GCN: s_add_i32 [[ADD1:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, [[ADD1]], v{{[0-9]+}}
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, [[ADD1]], v{{[0-9]+}}
+define amdgpu_kernel void @reassoc_i32(i32 addrspace(1)* %arg, i32 %x, i32 %y) {
+bb:
+ %tid = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %add1 = add i32 %x, %tid
+ %add2 = add i32 %add1, %y
+ store i32 %add2, i32 addrspace(1)* %arg, align 4
+ ret void
+}
+
+; GCN-LABEL: reassoc_i32_swap_arg_order:
+; GCN: s_add_i32 [[ADD1:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, [[ADD1]], v{{[0-9]+}}
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, [[ADD1]], v{{[0-9]+}}
+define amdgpu_kernel void @reassoc_i32_swap_arg_order(i32 addrspace(1)* %arg, i32 %x, i32 %y) {
+bb:
+ %tid = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %add1 = add i32 %tid, %x
+ %add2 = add i32 %y, %add1
+ store i32 %add2, i32 addrspace(1)* %arg, align 4
+ ret void
+}
+
+; GCN-LABEL: reassoc_i64:
+; GCN: s_add_u32 [[ADD1L:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GCN: s_addc_u32 [[ADD1H:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GFX8-DAG: v_add_u32_e32 v{{[0-9]+}}, vcc, [[ADD1L]], v{{[0-9]+}}
+; GFX9-DAG: v_add_co_u32_e32 v{{[0-9]+}}, vcc, [[ADD1L]], v{{[0-9]+}}
+; GCN-DAG: v_mov_b32_e32 [[VADD1H:v[0-9]+]], [[ADD1H]]
+; GFX8: v_addc_u32_e32 v{{[0-9]+}}, vcc, 0, [[VADD1H]], vcc
+; GFX9: v_addc_co_u32_e32 v{{[0-9]+}}, vcc, 0, [[VADD1H]], vcc
+define amdgpu_kernel void @reassoc_i64(i64 addrspace(1)* %arg, i64 %x, i64 %y) {
+bb:
+ %tid32 = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %tid = zext i32 %tid32 to i64
+ %add1 = add i64 %x, %tid
+ %add2 = add i64 %add1, %y
+ store i64 %add2, i64 addrspace(1)* %arg, align 8
+ ret void
+}
+
+; GCN-LABEL: reassoc_v2i32:
+; GCN: s_add_i32 [[ADD1:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GCN: s_add_i32 [[ADD2:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, [[ADD1]], v{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, [[ADD2]], v{{[0-9]+}}
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, [[ADD1]], v{{[0-9]+}}
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, [[ADD2]], v{{[0-9]+}}
+define amdgpu_kernel void @reassoc_v2i32(<2 x i32> addrspace(1)* %arg, <2 x i32> %x, <2 x i32> %y) {
+bb:
+ %t1 = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %t2 = tail call i32 @llvm.amdgcn.workitem.id.y()
+ %v1 = insertelement <2 x i32> undef, i32 %t1, i32 0
+ %v2 = insertelement <2 x i32> %v1, i32 %t2, i32 1
+ %add1 = add <2 x i32> %x, %v2
+ %add2 = add <2 x i32> %add1, %y
+ store <2 x i32> %add2, <2 x i32> addrspace(1)* %arg, align 4
+ ret void
+}
+
+; GCN-LABEL: reassoc_i32_nuw:
+; GCN: s_add_i32 [[ADD1:s[0-9]+]], s{{[0-9]+}}, s{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, [[ADD1]], v{{[0-9]+}}
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, [[ADD1]], v{{[0-9]+}}
+define amdgpu_kernel void @reassoc_i32_nuw(i32 addrspace(1)* %arg, i32 %x, i32 %y) {
+bb:
+ %tid = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %add1 = add i32 %x, %tid
+ %add2 = add nuw i32 %add1, %y
+ store i32 %add2, i32 addrspace(1)* %arg, align 4
+ ret void
+}
+
+; GCN-LABEL: reassoc_i32_multiuse:
+; GFX8: v_add_u32_e32 [[ADD1:v[0-9]+]], vcc, s{{[0-9]+}}, v{{[0-9]+}}
+; GFX9: v_add_u32_e32 [[ADD1:v[0-9]+]], s{{[0-9]+}}, v{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, s{{[0-9]+}}, [[ADD1]]
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, s{{[0-9]+}}, [[ADD1]]
+define amdgpu_kernel void @reassoc_i32_multiuse(i32 addrspace(1)* %arg, i32 %x, i32 %y) {
+bb:
+ %tid = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %add1 = add i32 %x, %tid
+ %add2 = add i32 %add1, %y
+ store volatile i32 %add1, i32 addrspace(1)* %arg, align 4
+ store volatile i32 %add2, i32 addrspace(1)* %arg, align 4
+ ret void
+}
+
+; TODO: This should be reassociated as well, however it is disabled to avoid endless
+; loop since DAGCombiner::ReassociateOps() reverts the reassociation.
+; GCN-LABEL: reassoc_i32_const:
+; GFX8: v_add_u32_e32 [[ADD1:v[0-9]+]], vcc, 42, v{{[0-9]+}}
+; GFX9: v_add_u32_e32 [[ADD1:v[0-9]+]], 42, v{{[0-9]+}}
+; GFX8: v_add_u32_e32 v{{[0-9]+}}, vcc, s{{[0-9]+}}, [[ADD1]]
+; GFX9: v_add_u32_e32 v{{[0-9]+}}, s{{[0-9]+}}, [[ADD1]]
+define amdgpu_kernel void @reassoc_i32_const(i32 addrspace(1)* %arg, i32 %x) {
+bb:
+ %tid = tail call i32 @llvm.amdgcn.workitem.id.x()
+ %add1 = add i32 %tid, 42
+ %add2 = add i32 %add1, %x
+ store volatile i32 %add1, i32 addrspace(1)* %arg, align 4
+ store volatile i32 %add2, i32 addrspace(1)* %arg, align 4
+ ret void
+}
+
+declare i32 @llvm.amdgcn.workitem.id.x()
+declare i32 @llvm.amdgcn.workitem.id.y()
OpenPOWER on IntegriCloud