diff options
Diffstat (limited to 'llvm/test/CodeGen/X86/vec_minmax_sint.ll')
-rw-r--r-- | llvm/test/CodeGen/X86/vec_minmax_sint.ll | 48 |
1 files changed, 24 insertions, 24 deletions
diff --git a/llvm/test/CodeGen/X86/vec_minmax_sint.ll b/llvm/test/CodeGen/X86/vec_minmax_sint.ll index 419eb2bed74..5999116deb9 100644 --- a/llvm/test/CodeGen/X86/vec_minmax_sint.ll +++ b/llvm/test/CodeGen/X86/vec_minmax_sint.ll @@ -46,7 +46,7 @@ define <2 x i64> @max_gt_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE41-NEXT: pand %xmm5, %xmm3 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3] ; SSE41-NEXT: por %xmm3, %xmm0 -; SSE41-NEXT: blendvpd %xmm2, %xmm1 +; SSE41-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE41-NEXT: movapd %xmm1, %xmm0 ; SSE41-NEXT: retq ; @@ -54,7 +54,7 @@ define <2 x i64> @max_gt_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE42: # BB#0: ; SSE42-NEXT: movdqa %xmm0, %xmm2 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm0 -; SSE42-NEXT: blendvpd %xmm2, %xmm1 +; SSE42-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE42-NEXT: movapd %xmm1, %xmm0 ; SSE42-NEXT: retq ; @@ -130,9 +130,9 @@ define <4 x i64> @max_gt_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE41-NEXT: pand %xmm7, %xmm4 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3] ; SSE41-NEXT: por %xmm4, %xmm0 -; SSE41-NEXT: blendvpd %xmm8, %xmm2 +; SSE41-NEXT: blendvpd %xmm0, %xmm8, %xmm2 ; SSE41-NEXT: movdqa %xmm5, %xmm0 -; SSE41-NEXT: blendvpd %xmm1, %xmm3 +; SSE41-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE41-NEXT: movapd %xmm2, %xmm0 ; SSE41-NEXT: movapd %xmm3, %xmm1 ; SSE41-NEXT: retq @@ -143,9 +143,9 @@ define <4 x i64> @max_gt_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE42-NEXT: movdqa %xmm1, %xmm5 ; SSE42-NEXT: pcmpgtq %xmm3, %xmm5 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0 -; SSE42-NEXT: blendvpd %xmm4, %xmm2 +; SSE42-NEXT: blendvpd %xmm0, %xmm4, %xmm2 ; SSE42-NEXT: movdqa %xmm5, %xmm0 -; SSE42-NEXT: blendvpd %xmm1, %xmm3 +; SSE42-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE42-NEXT: movapd %xmm2, %xmm0 ; SSE42-NEXT: movapd %xmm3, %xmm1 ; SSE42-NEXT: retq @@ -429,7 +429,7 @@ define <2 x i64> @max_ge_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE41-NEXT: por %xmm0, %xmm3 ; SSE41-NEXT: pcmpeqd %xmm0, %xmm0 ; SSE41-NEXT: pxor %xmm3, %xmm0 -; SSE41-NEXT: blendvpd %xmm2, %xmm1 +; SSE41-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE41-NEXT: movapd %xmm1, %xmm0 ; SSE41-NEXT: retq ; @@ -440,7 +440,7 @@ define <2 x i64> @max_ge_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE42-NEXT: pcmpgtq %xmm2, %xmm3 ; SSE42-NEXT: pcmpeqd %xmm0, %xmm0 ; SSE42-NEXT: pxor %xmm3, %xmm0 -; SSE42-NEXT: blendvpd %xmm2, %xmm1 +; SSE42-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE42-NEXT: movapd %xmm1, %xmm0 ; SSE42-NEXT: retq ; @@ -527,9 +527,9 @@ define <4 x i64> @max_ge_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3] ; SSE41-NEXT: por %xmm6, %xmm0 ; SSE41-NEXT: pxor %xmm9, %xmm0 -; SSE41-NEXT: blendvpd %xmm8, %xmm2 +; SSE41-NEXT: blendvpd %xmm0, %xmm8, %xmm2 ; SSE41-NEXT: movdqa %xmm5, %xmm0 -; SSE41-NEXT: blendvpd %xmm1, %xmm3 +; SSE41-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE41-NEXT: movapd %xmm2, %xmm0 ; SSE41-NEXT: movapd %xmm3, %xmm1 ; SSE41-NEXT: retq @@ -544,9 +544,9 @@ define <4 x i64> @max_ge_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE42-NEXT: movdqa %xmm2, %xmm6 ; SSE42-NEXT: pcmpgtq %xmm4, %xmm6 ; SSE42-NEXT: pxor %xmm6, %xmm0 -; SSE42-NEXT: blendvpd %xmm4, %xmm2 +; SSE42-NEXT: blendvpd %xmm0, %xmm4, %xmm2 ; SSE42-NEXT: movdqa %xmm5, %xmm0 -; SSE42-NEXT: blendvpd %xmm1, %xmm3 +; SSE42-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE42-NEXT: movapd %xmm2, %xmm0 ; SSE42-NEXT: movapd %xmm3, %xmm1 ; SSE42-NEXT: retq @@ -844,7 +844,7 @@ define <2 x i64> @min_lt_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE41-NEXT: pand %xmm5, %xmm3 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3] ; SSE41-NEXT: por %xmm3, %xmm0 -; SSE41-NEXT: blendvpd %xmm2, %xmm1 +; SSE41-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE41-NEXT: movapd %xmm1, %xmm0 ; SSE41-NEXT: retq ; @@ -853,7 +853,7 @@ define <2 x i64> @min_lt_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE42-NEXT: movdqa %xmm0, %xmm2 ; SSE42-NEXT: movdqa %xmm1, %xmm0 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0 -; SSE42-NEXT: blendvpd %xmm2, %xmm1 +; SSE42-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE42-NEXT: movapd %xmm1, %xmm0 ; SSE42-NEXT: retq ; @@ -929,9 +929,9 @@ define <4 x i64> @min_lt_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE41-NEXT: pand %xmm7, %xmm4 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3] ; SSE41-NEXT: por %xmm4, %xmm0 -; SSE41-NEXT: blendvpd %xmm8, %xmm2 +; SSE41-NEXT: blendvpd %xmm0, %xmm8, %xmm2 ; SSE41-NEXT: movdqa %xmm5, %xmm0 -; SSE41-NEXT: blendvpd %xmm1, %xmm3 +; SSE41-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE41-NEXT: movapd %xmm2, %xmm0 ; SSE41-NEXT: movapd %xmm3, %xmm1 ; SSE41-NEXT: retq @@ -943,9 +943,9 @@ define <4 x i64> @min_lt_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE42-NEXT: pcmpgtq %xmm1, %xmm5 ; SSE42-NEXT: movdqa %xmm2, %xmm0 ; SSE42-NEXT: pcmpgtq %xmm4, %xmm0 -; SSE42-NEXT: blendvpd %xmm4, %xmm2 +; SSE42-NEXT: blendvpd %xmm0, %xmm4, %xmm2 ; SSE42-NEXT: movdqa %xmm5, %xmm0 -; SSE42-NEXT: blendvpd %xmm1, %xmm3 +; SSE42-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE42-NEXT: movapd %xmm2, %xmm0 ; SSE42-NEXT: movapd %xmm3, %xmm1 ; SSE42-NEXT: retq @@ -1223,7 +1223,7 @@ define <2 x i64> @min_le_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE41-NEXT: por %xmm0, %xmm3 ; SSE41-NEXT: pcmpeqd %xmm0, %xmm0 ; SSE41-NEXT: pxor %xmm3, %xmm0 -; SSE41-NEXT: blendvpd %xmm2, %xmm1 +; SSE41-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE41-NEXT: movapd %xmm1, %xmm0 ; SSE41-NEXT: retq ; @@ -1233,7 +1233,7 @@ define <2 x i64> @min_le_v2i64(<2 x i64> %a, <2 x i64> %b) { ; SSE42-NEXT: pcmpgtq %xmm1, %xmm0 ; SSE42-NEXT: pcmpeqd %xmm3, %xmm3 ; SSE42-NEXT: pxor %xmm3, %xmm0 -; SSE42-NEXT: blendvpd %xmm2, %xmm1 +; SSE42-NEXT: blendvpd %xmm0, %xmm2, %xmm1 ; SSE42-NEXT: movapd %xmm1, %xmm0 ; SSE42-NEXT: retq ; @@ -1320,9 +1320,9 @@ define <4 x i64> @min_le_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3] ; SSE41-NEXT: por %xmm6, %xmm0 ; SSE41-NEXT: pxor %xmm9, %xmm0 -; SSE41-NEXT: blendvpd %xmm8, %xmm2 +; SSE41-NEXT: blendvpd %xmm0, %xmm8, %xmm2 ; SSE41-NEXT: movdqa %xmm5, %xmm0 -; SSE41-NEXT: blendvpd %xmm1, %xmm3 +; SSE41-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE41-NEXT: movapd %xmm2, %xmm0 ; SSE41-NEXT: movapd %xmm3, %xmm1 ; SSE41-NEXT: retq @@ -1336,9 +1336,9 @@ define <4 x i64> @min_le_v4i64(<4 x i64> %a, <4 x i64> %b) { ; SSE42-NEXT: pxor %xmm6, %xmm5 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0 ; SSE42-NEXT: pxor %xmm6, %xmm0 -; SSE42-NEXT: blendvpd %xmm4, %xmm2 +; SSE42-NEXT: blendvpd %xmm0, %xmm4, %xmm2 ; SSE42-NEXT: movdqa %xmm5, %xmm0 -; SSE42-NEXT: blendvpd %xmm1, %xmm3 +; SSE42-NEXT: blendvpd %xmm0, %xmm1, %xmm3 ; SSE42-NEXT: movapd %xmm2, %xmm0 ; SSE42-NEXT: movapd %xmm3, %xmm1 ; SSE42-NEXT: retq |