Mercurial > hg > CbC > CbC_llvm
diff test/CodeGen/AMDGPU/sdivrem64.ll @ 121:803732b1fca8
LLVM 5.0
author | kono |
---|---|
date | Fri, 27 Oct 2017 17:07:41 +0900 |
parents | 1172e4bd9c6f |
children |
line wrap: on
line diff
--- a/test/CodeGen/AMDGPU/sdivrem64.ll Fri Nov 25 19:14:25 2016 +0900 +++ b/test/CodeGen/AMDGPU/sdivrem64.ll Fri Oct 27 17:07:41 2017 +0900 @@ -1,5 +1,5 @@ ;RUN: llc -march=amdgcn -verify-machineinstrs < %s | FileCheck --check-prefix=SI --check-prefix=GCN --check-prefix=FUNC %s -;RUN: llc -march=amdgcn -mcpu=tonga -verify-machineinstrs < %s | FileCheck --check-prefix=VI --check-prefix=GCN --check-prefix=FUNC %s +;RUN: llc -march=amdgcn -mcpu=tonga -mattr=-flat-for-global -verify-machineinstrs < %s | FileCheck --check-prefix=VI --check-prefix=GCN --check-prefix=FUNC %s ;RUN: llc -march=r600 -mcpu=redwood < %s | FileCheck --check-prefix=EG --check-prefix=FUNC %s ;FUNC-LABEL: {{^}}s_test_sdiv: @@ -36,41 +36,14 @@ ;EG: BFE_UINT ;EG: BFE_UINT -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN: s_bfe_u32 -; GCN-NOT: v_mad_f32 -; SI-NOT: v_lshr_b64 -; VI-NOT: v_lshrrev_b64 -; GCN: s_endpgm -define void @s_test_sdiv(i64 addrspace(1)* %out, i64 %x, i64 %y) { +;GCN: v_mac_f32_e32 v{{[0-9]+}}, 0x4f800000, +;GCN: v_rcp_f32_e32 +;GCN: v_mul_f32_e32 v{{[0-9]+}}, 0x5f7ffffc +;GCN: v_mul_f32_e32 v{{[0-9]+}}, 0x2f800000 +;GCN: v_trunc_f32_e32 +;GCN: v_mac_f32_e32 v{{[0-9]+}}, 0xcf800000 +;GCN: s_endpgm +define amdgpu_kernel void @s_test_sdiv(i64 addrspace(1)* %out, i64 %x, i64 %y) { %result = sdiv i64 %x, %y store i64 %result, i64 addrspace(1)* %out ret void @@ -110,41 +83,14 @@ ;EG: BFE_UINT ;EG: AND_INT {{.*}}, 1, -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN: s_bfe_u32 -;GCN-NOT: v_mad_f32 -;SI-NOT: v_lshr_b64 -;VI-NOT: v_lshrrev_b64 +;GCN: v_mac_f32_e32 v{{[0-9]+}}, 0x4f800000, +;GCN: v_rcp_f32_e32 +;GCN: v_mul_f32_e32 v{{[0-9]+}}, 0x5f7ffffc +;GCN: v_mul_f32_e32 v{{[0-9]+}}, 0x2f800000 +;GCN: v_trunc_f32_e32 +;GCN: v_mac_f32_e32 v{{[0-9]+}}, 0xcf800000 ;GCN: s_endpgm -define void @s_test_srem(i64 addrspace(1)* %out, i64 %x, i64 %y) { +define amdgpu_kernel void @s_test_srem(i64 addrspace(1)* %out, i64 %x, i64 %y) { %result = urem i64 %x, %y store i64 %result, i64 addrspace(1)* %out ret void @@ -159,7 +105,7 @@ ;SI-NOT: v_lshr_b64 ;VI-NOT: v_lshrrev_b64 ;GCN: s_endpgm -define void @test_sdiv3264(i64 addrspace(1)* %out, i64 %x, i64 %y) { +define amdgpu_kernel void @test_sdiv3264(i64 addrspace(1)* %out, i64 %x, i64 %y) { %1 = ashr i64 %x, 33 %2 = ashr i64 %y, 33 %result = sdiv i64 %1, %2 @@ -176,7 +122,7 @@ ;SI-NOT: v_lshr_b64 ;VI-NOT: v_lshrrev_b64 ;GCN: s_endpgm -define void @test_srem3264(i64 addrspace(1)* %out, i64 %x, i64 %y) { +define amdgpu_kernel void @test_srem3264(i64 addrspace(1)* %out, i64 %x, i64 %y) { %1 = ashr i64 %x, 33 %2 = ashr i64 %y, 33 %result = srem i64 %1, %2 @@ -196,7 +142,7 @@ ;SI-NOT: v_lshr_b64 ;VI-NOT: v_lshrrev_b64 ;GCN: s_endpgm -define void @test_sdiv2464(i64 addrspace(1)* %out, i64 %x, i64 %y) { +define amdgpu_kernel void @test_sdiv2464(i64 addrspace(1)* %out, i64 %x, i64 %y) { %1 = ashr i64 %x, 40 %2 = ashr i64 %y, 40 %result = sdiv i64 %1, %2 @@ -216,7 +162,7 @@ ;SI-NOT: v_lshr_b64 ;VI-NOT: v_lshrrev_b64 ;GCN: s_endpgm -define void @test_srem2464(i64 addrspace(1)* %out, i64 %x, i64 %y) { +define amdgpu_kernel void @test_srem2464(i64 addrspace(1)* %out, i64 %x, i64 %y) { %1 = ashr i64 %x, 40 %2 = ashr i64 %y, 40 %result = srem i64 %1, %2