diff options
Diffstat (limited to 'llvm/test/CodeGen/AMDGPU/setcc64.ll')
| -rw-r--r-- | llvm/test/CodeGen/AMDGPU/setcc64.ll | 306 |
1 files changed, 154 insertions, 152 deletions
diff --git a/llvm/test/CodeGen/AMDGPU/setcc64.ll b/llvm/test/CodeGen/AMDGPU/setcc64.ll index 18805feed7b..5c6804e071d 100644 --- a/llvm/test/CodeGen/AMDGPU/setcc64.ll +++ b/llvm/test/CodeGen/AMDGPU/setcc64.ll @@ -1,5 +1,5 @@ -;RUN: llc < %s -march=amdgcn -mcpu=SI -verify-machineinstrs| FileCheck --check-prefix=SI --check-prefix=FUNC %s -;RUN: llc < %s -march=amdgcn -mcpu=tonga -verify-machineinstrs| FileCheck --check-prefix=SI --check-prefix=FUNC %s +; RUN: llc -march=amdgcn -verify-machineinstrs < %s| FileCheck -check-prefix=GCN -check-prefix=SI %s +; RUN: llc -march=amdgcn -mcpu=tonga -verify-machineinstrs < %s | FileCheck -check-prefix=GCN -check-prefix=VI %s ; XXX: Merge this into setcc, once R600 supports 64-bit operations @@ -7,150 +7,150 @@ ;; Double comparisons ;;;==========================================================================;;; -; FUNC-LABEL: {{^}}f64_oeq: -; SI: v_cmp_eq_f64 -define void @f64_oeq(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_oeq: +; GCN: v_cmp_eq_f64 +define void @f64_oeq(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp oeq double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp oeq double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ogt: -; SI: v_cmp_gt_f64 -define void @f64_ogt(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_ogt: +; GCN: v_cmp_gt_f64 +define void @f64_ogt(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ogt double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ogt double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_oge: -; SI: v_cmp_ge_f64 -define void @f64_oge(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_oge: +; GCN: v_cmp_ge_f64 +define void @f64_oge(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp oge double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp oge double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_olt: -; SI: v_cmp_lt_f64 -define void @f64_olt(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_olt: +; GCN: v_cmp_lt_f64 +define void @f64_olt(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp olt double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp olt double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ole: -; SI: v_cmp_le_f64 -define void @f64_ole(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_ole: +; GCN: v_cmp_le_f64 +define void @f64_ole(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ole double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ole double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_one: -; SI: v_cmp_lg_f64_e32 vcc -; SI: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc -define void @f64_one(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_one: +; GCN: v_cmp_lg_f64_e32 vcc +; GCN: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc +define void @f64_one(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp one double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp one double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ord: -; SI: v_cmp_o_f64 -define void @f64_ord(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_ord: +; GCN: v_cmp_o_f64 +define void @f64_ord(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ord double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ord double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ueq: -; SI: v_cmp_nlg_f64_e32 vcc -; SI: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc -define void @f64_ueq(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_ueq: +; GCN: v_cmp_nlg_f64_e32 vcc +; GCN: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc +define void @f64_ueq(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ueq double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ueq double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ugt: +; GCN-LABEL: {{^}}f64_ugt: -; SI: v_cmp_nle_f64_e32 vcc -; SI: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc -define void @f64_ugt(i32 addrspace(1)* %out, double %a, double %b) { +; GCN: v_cmp_nle_f64_e32 vcc +; GCN: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc +define void @f64_ugt(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ugt double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ugt double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_uge: -; SI: v_cmp_nlt_f64_e32 vcc -; SI: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc -define void @f64_uge(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_uge: +; GCN: v_cmp_nlt_f64_e32 vcc +; GCN: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc +define void @f64_uge(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp uge double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp uge double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ult: -; SI: v_cmp_nge_f64_e32 vcc -; SI: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc -define void @f64_ult(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_ult: +; GCN: v_cmp_nge_f64_e32 vcc +; GCN: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc +define void @f64_ult(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ult double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ult double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_ule: -; SI: v_cmp_ngt_f64_e32 vcc -; SI: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc -define void @f64_ule(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_ule: +; GCN: v_cmp_ngt_f64_e32 vcc +; GCN: v_cndmask_b32_e64 {{v[0-9]+}}, 0, -1, vcc +define void @f64_ule(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp ule double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp ule double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_une: -; SI: v_cmp_neq_f64 -define void @f64_une(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_une: +; GCN: v_cmp_neq_f64 +define void @f64_une(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp une double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp une double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}f64_uno: -; SI: v_cmp_u_f64 -define void @f64_uno(i32 addrspace(1)* %out, double %a, double %b) { +; GCN-LABEL: {{^}}f64_uno: +; GCN: v_cmp_u_f64 +define void @f64_uno(i32 addrspace(1)* %out, double %a, double %b) #0 { entry: - %0 = fcmp uno double %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = fcmp uno double %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } @@ -158,102 +158,104 @@ entry: ;; 64-bit integer comparisons ;;;==========================================================================;;; -; FUNC-LABEL: {{^}}i64_eq: -; SI: v_cmp_eq_u64 -define void @i64_eq(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_eq: +; GCN: v_cmp_eq_u64 +define void @i64_eq(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp eq i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp eq i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_ne: -; SI: v_cmp_ne_u64 -define void @i64_ne(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_ne: +; GCN: v_cmp_ne_u64 +define void @i64_ne(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp ne i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp ne i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_ugt: -; SI: v_cmp_gt_u64 -define void @i64_ugt(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_ugt: +; GCN: v_cmp_gt_u64 +define void @i64_ugt(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp ugt i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp ugt i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_uge: -; SI: v_cmp_ge_u64 -define void @i64_uge(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_uge: +; GCN: v_cmp_ge_u64 +define void @i64_uge(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp uge i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp uge i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_ult: -; SI: v_cmp_lt_u64 -define void @i64_ult(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_ult: +; GCN: v_cmp_lt_u64 +define void @i64_ult(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp ult i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp ult i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_ule: -; SI: v_cmp_le_u64 -define void @i64_ule(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_ule: +; GCN: v_cmp_le_u64 +define void @i64_ule(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp ule i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp ule i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_sgt: -; SI: v_cmp_gt_i64 -define void @i64_sgt(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_sgt: +; GCN: v_cmp_gt_i64 +define void @i64_sgt(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp sgt i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp sgt i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_sge: -; SI: v_cmp_ge_i64 -define void @i64_sge(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_sge: +; GCN: v_cmp_ge_i64 +define void @i64_sge(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp sge i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp sge i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_slt: -; SI: v_cmp_lt_i64 -define void @i64_slt(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_slt: +; GCN: v_cmp_lt_i64 +define void @i64_slt(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp slt i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp slt i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } -; FUNC-LABEL: {{^}}i64_sle: -; SI: v_cmp_le_i64 -define void @i64_sle(i32 addrspace(1)* %out, i64 %a, i64 %b) { +; GCN-LABEL: {{^}}i64_sle: +; GCN: v_cmp_le_i64 +define void @i64_sle(i32 addrspace(1)* %out, i64 %a, i64 %b) #0 { entry: - %0 = icmp sle i64 %a, %b - %1 = sext i1 %0 to i32 - store i32 %1, i32 addrspace(1)* %out + %tmp0 = icmp sle i64 %a, %b + %tmp1 = sext i1 %tmp0 to i32 + store i32 %tmp1, i32 addrspace(1)* %out ret void } + +attributes #0 = { nounwind } |

