[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2024224891A1 - 処理装置および処理方法 - Google Patents

処理装置および処理方法 Download PDF

Info

Publication number
WO2024224891A1
WO2024224891A1 PCT/JP2024/011091 JP2024011091W WO2024224891A1 WO 2024224891 A1 WO2024224891 A1 WO 2024224891A1 JP 2024011091 W JP2024011091 W JP 2024011091W WO 2024224891 A1 WO2024224891 A1 WO 2024224891A1
Authority
WO
WIPO (PCT)
Prior art keywords
prism
image
camera
stage
head
Prior art date
Application number
PCT/JP2024/011091
Other languages
English (en)
French (fr)
Inventor
亮 藤田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2024224891A1 publication Critical patent/WO2024224891A1/ja

Links

Images

Definitions

  • the present disclosure relates to a processing device and processing method that are used, for example, when positioning components relative to one another.
  • a camera is used to grasp the position of components such as boards and chip components, and position each component. At that time, each component is moved to correct the positional deviation based on the amount of positional deviation recognized by the camera, but by minimizing the amount of movement of the head and stage after the recognition correction, it is possible to reduce the movement error.
  • Patent Document 1 components are placed directly above the mounting position on the board, and an optical system is used that can recognize the rear surfaces of the components, which serve as the mating surfaces, and the positioning marks on the front surfaces of the components.
  • an optical system for the upper field of view that images the positioning marks on the rear surfaces of the components, and an optical system for the lower field of view that images the positioning marks on the front surfaces of the components are configured separately, so that the optical axis of the upper field of view and the optical axis of the lower field of view after reflection from the prism are coaxial, making it possible to image the upper and lower fields of view coaxially.
  • the present disclosure therefore aims to provide a processing device and processing method that can prevent a decrease in positioning accuracy.
  • a processing device includes a head, a stage, a positioning device that positions a first member held by the head and a second member held by the stage when the first member is aligned with a second member held by the stage, a prism having a first reflecting surface and a second reflecting surface, a camera, and a computing device, and when the prism is disposed between the head and the stage, the first reflecting surface reflects light incident from the head side to the camera side, and the second reflecting surface reflects light incident from the stage side to the camera side, and the camera captures camera images including a first image, which is an image of the head side, and a second image, which is an image of the stage side, based on the light incident from the prism, and the computing device determines the positions of the first member and the second member based on the camera images.
  • FIG. 1 is a diagram showing the configuration of a processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram showing some steps of an operation flow when the processing apparatus according to the first embodiment is applied to an imprint apparatus.
  • FIG. 3 is a side view of the positioning device according to the first embodiment.
  • FIG. 4 is a flowchart for explaining the operation of the positioning device according to the first embodiment.
  • FIG. 5 is a flowchart showing a process of calculating a position correction amount according to the first embodiment.
  • FIG. 6 is a diagram for explaining the calculation process of the position correction amount according to the first embodiment.
  • FIG. 7 is a diagram for explaining the calculation process of the position correction amount according to the first embodiment.
  • FIG. 8 is a flowchart showing the boundary position correction process according to the second embodiment.
  • FIG. 9 is a diagram for explaining the boundary position correction process according to the second embodiment.
  • FIG. 10 is a side view of the positioning device according to the third embodiment.
  • FIG. 11 is a diagram for explaining another example of the prism according to the third embodiment.
  • FIG. 12A is a side view of another example of the positioning device according to the third embodiment.
  • FIG. 12B is a side view of another example of the positioning device according to the third embodiment.
  • FIG. 13 is a side view of another example of the positioning device according to the third embodiment.
  • FIG. 14 is a side view of another example of the positioning device according to the third embodiment.
  • FIG. 15 is a diagram for explaining the boundary detection process of the positioning device of FIG. 12A.
  • FIG. 16 is a side view of another example of the positioning device according to the third embodiment.
  • FIG. 17 is a diagram showing the configuration of a positioning device according to another embodiment.
  • the X-axis, Y-axis, and Z-axis represent the three axes of a three-dimensional Cartesian coordinate system.
  • the X-axis and Y-axis are mutually orthogonal, and are both orthogonal to the Z-axis.
  • the Z-axis direction is the vertical direction. Note that each figure is a schematic diagram and is not necessarily an exact illustration. In addition, in each figure, substantially the same configuration is given the same reference numeral, and duplicate explanations are omitted or simplified.
  • Fig. 1 is a diagram showing the configuration of the processing apparatus 100 according to the first embodiment.
  • the processing device 100 includes a head 5, a stage 6, and a positioning device 10.
  • the head 5 is a holding device that holds the first member P1.
  • the head 5 can hold the first member P1, for example, by suctioning or gripping the first member P1.
  • the first member P1 may also be held by the head 5 by being fixed with a screw.
  • the head 5 can move in the Z-axis direction.
  • the head 5 can also rotate around the Z-axis. Therefore, although not shown, the processing device 100 has a mechanism that can move the head 5 in the Z-axis direction and rotate it around the Z-axis.
  • the head 5 may also have a mechanism that can move it in the X-axis direction and the Y-axis direction.
  • the stage 6 supports the second member P2.
  • the second member P2 is held by the stage 6.
  • the second member P2 is held by the stage 6 by being placed on the upper surface of the stage 6.
  • the stage 6 can move in the X-axis direction and the Y-axis direction. Therefore, although not shown, the processing device 100 has a mechanism that can move the stage 6 in the X-axis direction and the Y-axis direction.
  • the head 5 only needs to be able to move in the X-axis direction and Y-axis direction relative to the stage 6, position itself around the Z-axis, and move in the Z-axis direction.
  • the movement mechanism may be provided on either the head 5 or the stage 6, or may be provided in duplicate on both the head 5 and the stage 6.
  • the positioning device 10 is a positioning mechanism for positioning a first member P1 held by the head 5 and a second member P2 held by the stage 6.
  • the positioning device 10 can move in the X-axis direction and the Y-axis direction, just like the stage 6. Therefore, although not shown, the processing device 100 has a mechanism that can move the positioning device 10 in the X-axis direction and the Y-axis direction.
  • the processing apparatus 100 in this embodiment is an imprint apparatus.
  • the processing apparatus 100 is a nanoimprint apparatus for forming structures such as electrodes of nano-order size.
  • FIG. 2 is a diagram showing some steps of the operation flow when the processing apparatus 100 according to the first embodiment is applied to an imprint apparatus.
  • the first member P1 is an imprint mold having a concave-convex structure
  • the second member P2 is a workpiece to be imprinted.
  • the second member P2 is, for example, a substrate 101 such as a silicon substrate (wafer), and a resin layer 102 disposed on the substrate 101.
  • a first member P1 is set on the head 5, and a second member P2 is set on the stage 6.
  • a substrate 101 is placed on the stage 6, and then a resin material is applied onto the substrate 101 to form a resin layer 102.
  • the head 5 holding the first member P1 is moved downward to pressurize the imprint mold, which is the first member P1, against the resin layer 102 of the second member P2. Specifically, the protrusions of the imprint mold are pressed against the resin layer 102 of the second member P2.
  • the resin layer 102 is cured while the first member P1 is pressed against the second member P2.
  • the resin material constituting the resin layer 102 is a thermosetting resin
  • the resin layer 102 is cured by heating.
  • the resin material constituting the resin layer 102 is a photocurable resin
  • the resin layer 102 is cured by irradiating it with light such as ultraviolet light.
  • the head 5 holding the first member P1 is moved upward to separate the imprint mold, which is the first member P1, from the second member P2. This forms openings in the resin layer 102 that correspond to the protrusions of the imprint mold.
  • the resin layer 102 may be cured not only while the first member P1 is pressed against the second member P2, but also by moving the head 5 holding the first member P1 upward and separating the imprint mold, which is the first member P1, from the second member P2, and then curing the resin layer 102.
  • a plating film is then formed by electroless plating so as to fill the openings in the resin layer 102, and the resist resin layer 102 is removed to obtain a substrate on which protruding plating electrodes are formed on the substrate 101.
  • a base electrode such as a seed layer is formed in advance on the substrate 101 at a location corresponding to the opening of the resin layer 102.
  • the plating electrode formed in this manner can be used as a bump (e.g., a microbump).
  • a substrate having bumps (plating electrodes) is bump-bonded to a chip component such as a semiconductor chip. This makes it possible to obtain an electronic component in which a substrate and a chip component are bump-bonded.
  • the steps (a) to (c) in FIG. 2 may be repeated under the same conditions at multiple locations on the wafer.
  • FIG. 3 shows a side view of the positioning device 10 according to the first embodiment.
  • the imaging direction of the camera 1 (the optical axis direction of the lens 2) is the Y direction
  • the up-down direction is the Z direction (first direction)
  • the direction perpendicular to the Y direction and Z direction is the X direction.
  • the positioning device 10 includes a camera 1, a lens 2, a prism 3, a prism holder 4, a head 5, a stage 6, a monitor 7, and a computing device 8.
  • Camera 1 captures an image of a first member P1 held by head 5 and a second member P2 held by stage 6 via lens 2 and prism 3 (details will be described later). Camera 1 outputs the captured camera image A to calculation device 8, which outputs image A and the calculation results to monitor 7.
  • Lens 2 is attached so that its optical axis coincides with the imaging direction of camera 1. It is desirable for lens 2 to be a telecentric optical system in which the change in position is small even if the focal position is slightly shifted, but this is not always the case if the precision of transporting the workpiece to the focal position is high.
  • the prism 3 is disposed on the optical axis of the lens 2 (the imaging direction of the camera 1).
  • the prism 3 has a first reflecting surface 31 and a second reflecting surface 32 formed with a boundary line 33 therebetween.
  • the first reflecting surface 31 and the second reflecting surface 32 are formed such that the angle between them is, for example, 90°.
  • the first reflecting surface 31 is formed so as to form an angle of 45° with respect to the Z axis so as to reflect the light incident from the head 5 in the direction of the optical axis of the lens 2.
  • the second reflecting surface 32 is formed so as to form an angle of 45° with respect to the Z axis so as to reflect the light incident from the stage 6 in the direction of the optical axis of the lens 2.
  • the angles of the first reflecting surface 31 and the second reflecting surface 32 do not have to be the angles exemplified above, and may be any angle as long as the following configuration can be realized.
  • the lens 2 and camera 1 may be rotated by an angle ⁇ in a direction rotating around the X-axis centered on the boundary line 33 of the prism 3, with the camera 1 side facing in the +Z direction.
  • the prism 3 may be rotated around the same X-axis at an angle of ⁇ /2, centered on the boundary line 33.
  • the amount of movement of the head 5 after alignment is reduced, so that even if the movement axis of the head 5 is tilted due to thermal expansion, for example, the effect of this on alignment can be reduced.
  • the prism holding portion 4 holds the prism 3.
  • the prism 3 is adhered to the prism holding portion 4 with an adhesive, so that the prism holding portion 4 holds the prism 3, but the prism 3 may be held by other holding methods (for example, by having the prism holding portion 4 grip the prism 3).
  • the lens 2 and prism holding part 4 are held by an optical unit base 9.
  • a position adjustment mechanism such as a focus mechanism may be provided between the lens 2 and the optical unit base 9.
  • a fine position adjustment mechanism may be provided between the prism holding part 4 and the optical unit base 9.
  • the lens 2 and prism holding part 4 are fixed by the same optical unit base 9, but an optical unit base 9 may be provided for each of the lens 2 and prism holding part 4.
  • the head 5 holds the first member P1, and the stage 6 holds the second member P2.
  • the processing apparatus 100 is an imprint apparatus
  • the first member P1 is an imprint mold
  • the second member P2 is a workpiece including a substrate.
  • the first member P1 and the second member P2 are picked up, for example, by a supply head or the like (not shown), and then held by the head 5 and the stage 6, respectively.
  • the first optical path from the camera 1 to the first member P1 on the head 5 via the lens 2 and the first reflecting surface 31 of the prism 3 and the second optical path from the camera 1 to the second member P2 on the stage 6 via the lens 2 and the second reflecting surface 32 of the prism 3, have the same optical path length.
  • Camera image A includes a first image A1, which is an image on the head 5 side, and a second image A2, which is an image on the stage 6 side. As shown in FIG. 3, first image A1 and second image A2 are displayed side by side in the vertical direction, sandwiching boundary A3.
  • Boundary A3 is an image that corresponds to boundary line 33 of prism 3. Prism 3 is positioned so that boundary line 33 coincides with the optical axis direction of lens 2, and therefore boundary A3 is located in the center of camera image A.
  • the calculation device 8 calculates the relative positions of the first member P1 and the second member P2 based on the camera image A output from the camera 1, and executes the following positioning process.
  • the optical system (hereinafter simply referred to as the "optical system") including the camera 1, lens 2, prism 3, prism holder 4, etc., can move in the X and Y directions.
  • the head 5 and stage 6 can move in the X and Y directions, as well as in a rotational direction about the Z axis.
  • the first member P1 and the second member P2 (hereinafter, the first member P1 and the second member P2 may be referred to as the "workpiece") are placed at the focal position of the lens 2, and the prism 3 is placed between the lens 2 and the workpiece on the optical axis, so that blurring occurs at the boundary A3 of the obtained image. If the position of the prism 3 is close to the lens 2, the "blurring" of the boundary A3 of the camera image A becomes large, and the position recognition accuracy of the boundary A3 decreases.
  • the prism 3 is placed very close to the first member P1 and the second member P2 in the first and second optical paths. Specifically, the prism 3 is placed so that the distance between the prism 3 and the first member P1 and the second member P2 is shorter than the distance between the prism 3 and the lens 2. In this way, the "blurring" of the boundary A3 can be reduced. In addition, the relative position between the first member P1 and the second member P2 can be reduced.
  • the prism 3 by bringing the prism 3 closer to the workpiece, even if the prism 3 is slightly misaligned due to thermal distortion or the like, the effect of the workpiece's positional deviation caused by optical axis wobble can be minimized, so that the amount of movement of each member after correction can be reduced, and the positioning correction error can be reduced.
  • FIG. 4 is a flowchart for explaining the operation of the positioning device 10 according to the first embodiment.
  • the workpiece is set on this positioning device (step S1). Specifically, the first member P1 is held by the head 5 using a supply head (not shown), and the second member P2 is placed on the stage 6. At this time, alignment points are provided on the surfaces of the first member P1 and the second member P2. The first member P1 and the second member P2 are held and placed on the head 5 and the stage 6 so that these alignment points face each other.
  • the camera 1 captures the first member P1 and the second member P2 (step S2). Specifically, the camera 1, the lens 2, the prism 3, and the prism holder 4 are moved to place the prism 3 between the first member P1 (head 5) and the second member P2 (stage 6). The camera 1 then outputs the camera image A of the first member P1 and the second member P2 to the calculation device 8.
  • the camera 1 may capture the first image A1 and the second image A2 separately or simultaneously. For example, if the first image A1 and the second image A2 are captured at the same time, one of the images may become white or black.
  • the camera 1 may capture the first image A1 and the second image A2 in two separate captures.
  • the calculation device 8 determines the relative positions of the first member P1 and the second member P2 based on the first image A1 and the second image A2 included in the camera image A, and calculates the position correction amount between the first member P1 and the second member P2 (step S3). Specifically, the calculation device 8 performs the process shown in FIG. 5 (described in detail later).
  • the calculation device 8 determines whether or not position correction is necessary based on the calculated position correction amount (step S4). If the position correction amount is equal to or greater than a predetermined value, the calculation device 8 determines that position correction is necessary (YES in step S4) and corrects (moves) the positions of the first member P1 and the second member P2 based on the position correction amount calculated in step S3 (step S5). Then, the process returns to step S2.
  • the calculation device 8 determines that position correction is not necessary (YES in step S4) and performs an alignment operation to align the first member P1 with the second member P2 (step S6). Specifically, the head 5 is moved in the Z direction toward the stage 6 to align the first member P1 with the second member P2.
  • FIG. 5 is a flowchart showing the calculation process of the position correction amount according to the first embodiment, which is executed by the calculation device 8 in step S3 to calculate the position correction amount.
  • the calculation device 8 acquires a camera image A (step S11) and detects a first feature point M1 of the first member P1 from the first image A1 (step S12). The calculation device 8 also detects a second feature point M2 of the second member P2 from the second image A2 (step S13).
  • These feature points are, for example, characteristic parts of the corresponding members (corners, etc.) or marks on the surfaces of the members.
  • the calculation device 8 detects the intersection of the two straight lines that make up the corner as the first characteristic point M1 because the feature point of the first member P1 is set to a corner. Also, the calculation device 8 detects the center of the circle as the second characteristic point M2 because the feature point of the second member P2 is set to a circular mark.
  • the calculation device 8 detects the center point of the two first characteristic points M1 as the reference position N1 of the first member P1, and detects the center point of the two second characteristic points M2 as the reference position N2 of the second member P2. Furthermore, the calculation device 8 determines the relative angle between a first angle reference line, which is a straight line connecting the two first characteristic points M1, and a second angle reference line, which is a straight line connecting the two second characteristic points M2. Based on the reference positions N1, N2 and the relative angle between the first angle reference line and the second angle reference line, the calculation device 8 calculates the position correction amount (step S14).
  • FIG. 7 is a diagram for explaining the calculation process of the position correction amount according to the first embodiment.
  • the first member P1 and the second member P2 are displayed in the camera images A in (a) to (c) of FIG. 7, respectively.
  • a first image A1 and a second image A2 are displayed side by side, one above the other, separated by a boundary A3 extending in the X direction.
  • the X direction is the same in first image A1 and second image A2, and the Y direction is inverted.
  • P2' indicates the position of second member P2 when second image A2 is folded back in the Y direction using boundary A3 as a reference.
  • steps S4 and onwards are executed.
  • the first reflecting surface 31 reflects the light incident from the head 5 side to the camera 1 side
  • the second reflecting surface 32 reflects the light incident from the stage 6 side to the camera 1 side.
  • the camera 1 captures a camera image A including a first image A1 which is an image on the head 5 side and a second image A2 which is an image on the stage 6 side based on the light incident from the prism 3.
  • the calculation device 8 determines the positions of the first member P1 and the second member P2 based on the camera image A. This allows the positions of the first member P1 and the second member P2 to be recognized with one prism and one camera, thereby reducing the number of parts constituting the optical system. Therefore, the occurrence of thermal expansion of the parts constituting the optical system can be suppressed, thereby suppressing a decrease in positioning accuracy.
  • the size of the first member P1 may be large, and the first member P1 (or the second member P2) may not fit completely in the first image A1 (or the second image A2).
  • an optical system such as the camera 1 may be moved appropriately in the X and Y directions to generate multiple first images A1 (or multiple second images A2), and the calculation device 8 may detect the first feature point M1 (or the second feature point M2) based on these images.
  • FIG. 8 is a flowchart showing a correction process of the boundary position according to the second embodiment.
  • the operation shown in FIG. 8 is executed by the calculation device 8 before the operation of FIG. 4 is performed.
  • the camera 1 is installed so that the upward direction coincides with the Z direction, and the boundary line 33 of the two reflecting surfaces (the first reflecting surface 31 and the second reflecting surface 32) of the prism 3 is arranged so as to be on the optical axis center of the lens 2 and parallel to the X axis, so that the boundary A3 (the boundary line 33 of the prism 3) in the camera image A is displayed in the vertical center of the camera image A so as to coincide with the X direction. (See each diagram in FIG. 6).
  • the boundary A3 may be displayed shifted from the position in FIG. 6 (hereinafter also referred to as the "reference position of the boundary A3"). If the processes of FIG. 4 and FIG. 5 are performed based on the shifted boundary A3, it becomes impossible to accurately perform the positioning (calculation of the correction amount) of the first member P1 and the second member P2. Therefore, in the second embodiment, the deviation of the boundary A3 is corrected by executing the boundary position correction process in Fig. 8. Note that in (a) to (c) of Fig. 9, the boundary before the position correction is shown as A3, and the boundary after the position correction is shown as A3'.
  • the calculation device 8 detects the boundary A3' from the camera image A (step S21).
  • the calculation device 8 detects, for example, the bottom edge of the first image A1 and the top edge of the second image A2, and sets the midpoint between them as the boundary A3'.
  • the calculation device 8 may capture the first image A1 and the second image A2 separately, and detect the bottom edge of the first image A1 and the top edge of the second image A2.
  • the calculation device 8 may also detect the top and bottom edges of the area of the boundary line 33 of the prism 3 (area where blurring occurs) from the background image of the work in the camera image A, and set the midpoint between them as the boundary A3'.
  • the calculation device 8 determines whether or not a process for correcting the boundary A3 is necessary (step S22). Specifically, when the boundary A3' does not match the reference position of the boundary A3 in the camera image A, the calculation device 8 determines that a process for correcting the boundary A3 is necessary.
  • step S22 If the calculation device 8 determines that the process of correcting the boundary A3 is not necessary (NO in step S22), the calculation device 8 ends the process. If the calculation device 8 determines that the process of correcting the boundary A3 is necessary (YES in step S22), the calculation device 8 performs boundary position correction (step S23).
  • step S22 since boundary A3' coincides with the reference position of boundary A3 in camera image A, it is determined that position correction of boundary A3 is unnecessary (NO in step S22). In this case, the calculation device 8 executes the process of FIG. 2 without performing position correction processing of boundary A3.
  • the boundary A3' is shifted in the +Y direction compared to the reference position of the boundary A3.
  • the optical axis of the lens 2 is shifted in the Z direction, resulting in the camera image A1 shown in FIG. 9(b).
  • boundary A3' is shifted in the rotational direction with respect to the center of camera image A1 as the reference position when compared with the reference position of boundary A3.
  • the optical axis of lens 2 rotates around the Y axis, resulting in camera image A1 as shown in FIG. 9(c).
  • the calculation device 8 determines that the position of the boundary A3 needs to be corrected (Yes in step S22). The calculation device 8 then performs a position correction process to set the position of the boundary A3' to the position of the boundary A3 displayed in the camera image A.
  • the position of the boundary A3' is used as a reference to perform processes such as calculation of the position correction amount in step S14 (such as a process of folding the second image A2 in the Y direction with the boundary A3 as a reference to match the coordinates of the first image A2 and the second image A2 with the actual coordinate system), so that even if a shift occurs in the boundary A3 due to thermal expansion of the components that make up the optical system of the camera 1 and the lens 2, the position of the workpiece can be corrected with high accuracy.
  • processes such as calculation of the position correction amount in step S14 (such as a process of folding the second image A2 in the Y direction with the boundary A3 as a reference to match the coordinates of the first image A2 and the second image A2 with the actual coordinate system), so that even if a shift occurs in the boundary A3 due to thermal expansion of the components that make up the optical system of the camera 1 and the lens 2, the position of the workpiece can be corrected with high accuracy.
  • the position of the boundary A3 has a large effect on the calculation of the position correction amount in step S14.
  • the position of the boundary A3 may change during multiple alignment operations due to thermal expansion of the components that make up the optical system. For this reason, it is preferable to perform the process of FIG. 8 after a predetermined number of alignment operations or at a predetermined interval.
  • the frequency of performing the process of FIG. 8 is determined by the temperature change of the positioning device, the ease of positional deviation of the boundary A3, the manufacturing speed of the finished product, and the like. It is preferable that the process of FIG.
  • Third Embodiment Fig. 10 is a side view of a positioning device according to a third embodiment.
  • the positioning device in Fig. 10 is configured in a similar manner to that in Fig. 1, but further includes a coaxial illuminator 11 and an oblique illuminator 12 (first illuminator).
  • the coaxial lighting 11 illuminates the prism 3 with light in the Y direction, thereby illuminating the first member P1 and the second member P2 with light from the Z direction.
  • the oblique lighting 12 illuminates the first member P1 and the second member P2 with light from an oblique direction.
  • the coaxial lighting 11 and the oblique lighting 12 allow a clearer camera image A to be captured.
  • the prism 3 has a third reflecting surface 34 between the first reflecting surface 31 and the second reflecting surface 32.
  • the third reflecting surface 34 is a plane having a predetermined width in the Z direction and extending in the X direction, and is formed on the prism 3 in place of the boundary line 33.
  • the boundary A3 is displayed more clearly in the camera image A.
  • the coaxial lighting 11 is turned on and the camera 1 captures an image in a state where there is no object displayed in the first image A1 and the second image A2.
  • the first image A1 and the second image A2 become black images, and the boundary A3 is displayed as a white line between them.
  • the processing of FIG. 8 can be performed more reliably.
  • the width of the third reflecting surface 34 in the Z direction is such that the light reflected by the third reflecting surface 34 occupies at least one pixel in the camera image A1 and less than 10% of the entire image. Also, as long as the boundary A3 can be detected, the width of the third reflecting surface 34 in the Z direction may be less than one pixel.
  • Fig. 11 is a diagram for explaining another example of a prism according to the third embodiment. Specifically, Fig. 11(a) shows a side view of the prism 3, and Fig. 11(b) shows a view of the prism 3 as viewed from the lens 2 side.
  • a mark 35 (first mark) is provided on the prism 3. Specifically, two marks 35 are provided on each of the first reflecting surface 31 and the second reflecting surface 32. The marks 35 are arranged at equal intervals in the Z direction with respect to the boundary line 33.
  • (c) in Figure 11 is a camera image A taken when the prism 3 is captured without any objects being displayed in the first image A1 and the second image A2.
  • the mark 35 is displayed in the camera image A, even if the boundary A3 is difficult to detect, it is possible to detect the boundary A3 because it can be estimated that the boundary A3 exists in the center of the two marks 35 lined up in the vertical direction of the drawing.
  • marks 35 are not limited to the example in FIG. 11 and can be selected as appropriate. Furthermore, marks 35 may be low-reflection materials that are displayed with low brightness in camera image A, or high-reflection materials that are displayed with high brightness in camera image A.
  • FIG. 12A shows a side view of another example of the positioning device according to the third embodiment.
  • a reflector 36 is placed on the stage 6 side to detect the boundary A3 (boundary line 33) of the camera image A.
  • boundary A3 boundary line 33
  • the camera 1 captures the camera image A without any object being displayed in the first image A1 and the second image A2
  • a black image is displayed in the first image A1 because there is no object on the head 5 side.
  • the reflector 36 is placed on the stage 6 side, a white image is displayed in the second image. It can be estimated that the boundary between the black image (first image A1) and the white image (second image A2) at this time is boundary A3, which corresponds to boundary line 33, and therefore boundary A3 can be detected.
  • the distance L1 from the position of the ridge line (boundary line 33) of the prism 3 to the reflecting surface of the reflector 36 approximately the same as the distance L2 from the reflecting surface of the reflector 36 to the imaging surface of the workpiece, which is the object to be recognized (the surface of the second member P2 in FIG. 12A).
  • the focus of the obtained image is matched to the ridge line (boundary line 33) of the prism 3, and the boundary A3 can be detected more clearly. It is desirable that the degree of agreement between the distance L1 and the distance L2 is within the depth of field of the lens 2.
  • a light (second light source) that irradiates light onto the prism 3 may be installed.
  • the reflector 36 may also be disposed on the head 5 side.
  • lighting may be installed above and below the prism 3.
  • the calculation device 8 detects the bottom edge of the first image A1 and the top edge of the second image A2, and sets the midpoint between them as the boundary A3.
  • the calculation device 8 may also capture the first image A1 and the second image A2 separately, detect the bottom edge of the first image A1 and the top edge of the second image A2, and set the midpoint between them as the boundary A3.
  • the reflector 36 may be disposed on the head side of the prism 3 (upper side in FIG. 12A) instead of on the stage side of the prism 3 (lower side in FIG. 12A), or may be disposed on both the stage 6 side and head 5 side of the prism 3 as shown in FIG. 12B. In other words, it is sufficient that the reflector 36 is disposed on at least one of the head side or stage side of the prism 3.
  • the reflectors 36 are installed above and below the prism 3.
  • the tilt direction of the reflector 36 is preferably such that the part of the reflector 36 on the prism 3 side (opposite the camera side) is closer to the prism 3 side. In other words, it is preferable that the part of the reflector 36 on the camera 1 side is tilted in a direction away from the prism 3.
  • the tilt angle ⁇ of the reflector 36 is preferably about 0.05 to 0.1 deg. By tilting the reflector 36 slightly in this way, the boundary line A3 can be detected more clearly.
  • the tilt direction and tilt angle of the reflector 36 are not limited to this because they depend on the field of view size, etc.
  • reflectors 36 are placed only on the top or bottom, for example, if the light intensity of the coaxial lighting becomes stronger, the boundary line A3 is detected as expanding in the coaxial lighting.
  • reflectors 36 on both the top and bottom as shown in Figure 12B, even if the light intensity of the coaxial lighting changes, for example, only the detected line width changes, and the position of the finally calculated boundary line A3 (the center line of the detected line) does not change. This makes it less susceptible to disturbances caused by lighting, enabling highly accurate detection.
  • FIG. 13 is a side view of another example of the positioning device according to the third embodiment.
  • a coaxial confirmation jig 37 (first coaxial confirmation jig) is placed to detect the boundary A3 (boundary line 33) of the camera image A.
  • the coaxial confirmation jig 37 is placed so as to sandwich the prism 3 in the Z direction.
  • the coaxial confirmation jig 37 has marks 371 (second marks) placed at the same positions in the X and Y directions.
  • FIG. 14 is a side view of another example of the positioning device according to the third embodiment.
  • a coaxial confirmation jig 38 (second coaxial confirmation jig) is arranged to detect the boundary A3 (boundary line 33) of the camera image A.
  • the coaxial confirmation jig 38 is arranged on the head 5 side.
  • the coaxial confirmation jig 38 also has two marks 381 (third marks) arranged side by side in the X direction.
  • the camera image A on which the boundary A3 and the two marks 381 are displayed is captured in advance, and the initial positions of the boundary A3 and the two marks 381 are obtained.
  • the position of the boundary A3 can be corrected by comparing the initial positions of the two marks 381 with the position of the mark 381 captured afterwards.
  • the relative distance (distance Lm in FIG. 15) between the boundary A3 and the initial positions of the two marks 381 is calculated, and the boundary A3 is estimated to exist at a position offset by distance Lm in the perpendicular direction of the line connecting the two marks 381 captured afterwards. Note that in (a) to (c) of FIG. 15, the boundary before position correction is shown as A3, and the boundary after position correction is shown as A3'.
  • the two marks 381 are displayed at positions shifted in the +X direction in the first image A1 (see FIG. 15(a)).
  • the boundary A3' exists at a position offset by a distance Lm in the -Y direction from the straight line connecting the two marks 381.
  • the two marks 381 are displayed at positions shifted in the +Z direction in the first image A1 (see FIG. 15(b)). In this case, it is estimated that the boundary A3' exists at a position offset by a distance Lm in the -Z direction from the straight line connecting the two marks 381.
  • the two marks 381 are displayed in the first image A1 at positions shifted in the rotational direction around the center of the drawing (see FIG. 15(c)). In this case, it is estimated that boundary A3' exists at a position offset by a distance Lm in the perpendicular direction from the straight line connecting the two marks 381.
  • the boundary A3 can be detected.
  • the detection accuracy of the boundary A3 can be improved by combining this modified example with the detection method of the boundary A3 in other embodiments (and other modified examples).
  • FIG. 16 is a side view of another example of the positioning device according to the third embodiment.
  • a glass jig 39 is held by the head 5 in order to detect the boundary A3 (boundary line 33) of the camera image A (see FIG. 16(a)).
  • a first image A1 is captured with the glass jig 39 held by the head 5. Then, the head 5 is moved in the Z direction, and a second image A2 is captured with the glass jig 39 placed on the stage 6 (see FIG. 16(b)). At this time, it can be assumed that the boundary A3 exists in the center position of the glass jig 39 displayed in the first image A1 and the second image A2, and therefore the boundary A3 can be detected.
  • the head 5 when performing the alignment operation or detecting the boundary A3, the head 5 may move in the Z direction toward the stage 6.
  • the optical system (camera 1, lens 2, prism 3, prism holder 4, etc.) moves (forward and backward) in the Y or X direction so that the head 5 does not collide with the prism 3.
  • the entire optical system may be moved, or only the prism 3 and prism holder 4 may be moved backward.
  • FIG. 17(a) is a plan view of the positioning device
  • FIG. 17(b) is a side view of the positioning device.
  • two of each of the cameras 1, lenses 2, prisms 3, and prism holders 4 are provided.
  • the upper camera 1 captures images of the first member P1 and the second member P2 via the reflecting prism 13, the half mirror 14, the reflecting prism 15, and the prism 3.
  • the lower camera 1 captures images of the first member P1 and the second member P2 via the half mirror 14, the reflecting prism 15, and the prism 3.
  • each camera 1 captures a camera image A at a different position in the X direction.
  • multiple locations on the work can be captured in one image capture, thereby improving manufacturing efficiency.
  • the processing device 100 equipped with the positioning device 10 is an imprint device, but this is not limited to this.
  • the processing device 100 may be applied to various devices and equipment that require alignment of parts with each other, such as processing devices and manufacturing devices other than imprint devices.
  • the processing apparatus 100 which is an imprint apparatus, is used to create bumps on a substrate, but this is not limited to this.
  • the processing apparatus 100 which is an imprint apparatus, may be used to create a redistribution layer, or may be used to create optical components such as light guide plates and anti-reflection films in liquid crystal display devices, optical components such as magnetic disks, microlens arrays, and optical waveguides, solar cells, fuel cell components, biodevices, or semiconductor devices.
  • this disclosure also includes forms obtained by applying various modifications conceivable by a person skilled in the art to each of the above embodiments, and forms realized by arbitrarily combining the components and functions of each embodiment within the scope of the present disclosure.
  • this disclosure also includes any combination of two or more claims from among the multiple claims described in the claims at the time of filing this application, within the scope of technical compatibility. For example, when a cited-form claim described in the claims at the time of filing this application is made into a multi-claim or multi-multi-claim that cites all of the higher-level claims within the scope of technical compatibility, the combination of all claims included in that multi-claim or multi-multi-claim is also included in this disclosure.
  • the processing device and processing method disclosed herein can be used to position components relative to one another.

Landscapes

  • Wire Bonding (AREA)
  • Image Processing (AREA)

Abstract

処理装置(100)は、位置決め装置(10)と、ヘッド(5)と、ステージ(6)とを備える。位置決め装置(10)は、カメラ(1)と、第1反射面(31)と第2反射面(32)とを有するプリズム(3)と、演算装置(8)とを備える。プリズム(3)がヘッド(5)とステージ(6)との間に配置されたとき、第1反射面(31)はヘッド(5)側から入射した光をカメラ(1)側へ反射させ、第2反射面(32)はステージ(6)側から入射した光をカメラ(1)側へ反射させる。カメラ(1)は、プリズム(3)から入射した光に基づいて、ヘッド(5)側の画像である第1画像(A1)、および、ステージ(6)側の画像である第2画像(A2)を含むカメラ画像(A)を撮像する。演算装置(8)は、カメラ画像(A)に基づいて、第1部材(P1)および第2部材(P2)の位置を求める。

Description

処理装置および処理方法
 本開示は、例えば、部材同士の位置決めをする際に用いられる処理装置および処理方法に関するものである。
 従来より、電子部品などを製造する場合、カメラを用いて基板やチップ部品などの部材の位置を把握し、各部材の位置決めが行われる。その際に、カメラによって認識された位置ズレ量に基づいて、各部材の位置ズレを補正するための移動が行われるが、認識補正後のヘッドやステージの移動量を極小化することで、移動誤差を小さくすることができる。
 例えば、特許文献1では、基板の実装位置直上まで部材を配置しておき、お互いの合わせ面となる部材裏面と、部材表面の位置決めマークとを認識できるような光学系を用いている。特に、特許文献1は、部材裏面の位置決めマークを撮像する上視野用の光学系と部材表面の位置決めマークを撮像する下視野用の光学系とが別々に構成されているため、プリズムの反射後の上視野の光軸と下視野の光軸が同軸となり、上視野と下視野を同軸で撮像可能となっている。このような構造により、光学系で撮像した情報から2つの部材の水平位置を合わせれば、ヘッドの動作が下降するのみで2つの部材を合わせることができるので、装置移動による誤差を最小化することができ、高精度な実装を行うことができる。
特許第4642565号公報
 しかしながら、10μm以下の超高精度な位置決めを行う場合、第1部材用の光学系と第2部材用の光学系とを構成するプリズムやミラー、カメラなどの一部の部品もしくは複数の部品がわずかに熱膨張しただけで、光路にズレが生じるため、第1部材用の光学系の光路と第2部材用の光学系の光路との同軸が崩れてしまい、位置決め精度が悪化してしまう。
 そこで、本開示は、位置決めの精度低下を抑止することができる処理装置および処理方法等を提供することを目的とする。
 上記の目的を達成するために、本開示の一実施形態に係る処理装置は、ヘッドと、ステージと、前記ヘッドに保持された第1部材を、前記ステージに保持された第2部材に合わせるときに、当該第1部材および当該第2部材の位置決めを行う位置決め装置と、第1反射面と第2反射面とを有するプリズムと、カメラと、演算装置と、を備え、前記プリズムが前記ヘッドおよび前記ステージとの間に配置された場合、前記第1反射面は前記ヘッド側から入射した光を前記カメラ側へ反射させ、前記第2反射面は前記ステージ側から入射した光を前記カメラ側へ反射させ、前記カメラは、前記プリズムから入射した光に基づいて、前記ヘッド側の画像である第1画像、および、前記ステージ側の画像である第2画像を含むカメラ画像を撮像し、前記演算装置は、前記カメラ画像に基づいて、前記第1部材および前記第2部材の位置を求める。
 本開示によると、位置決めの精度低下を抑止することができる。
図1は、第1実施形態に係る処理装置の構成を示す図である。 図2は、第1実施形態に係る処理装置をインプリント装置に適用したときの動作フローの一部の工程を示す図である。 図3は、第1実施形態に係る位置決め装置の側面図である。 図4は、第1実施形態に係る位置決め装置の動作を説明するためのフローチャートである。 図5は、第1実施形態に係る位置補正量の算出処理を示すフローチャートである。 図6は、第1実施形態に係る位置補正量の算出処理を説明するための図である。 図7は、第1実施形態に係る位置補正量の算出処理を説明するための図である。 図8は、第2実施形態に係る境界位置の補正処理を示すフローチャートである。 図9は、第2実施形態に係る境界位置の補正処理を説明するための図である。 図10は、第3実施形態に係る位置決め装置の側面図である。 図11は、第3実施形態に係るプリズムの他の例を説明するための図である。 図12Aは、第3実施形態に係る位置決め装置の他の例の側面図である。 図12Bは、第3実施形態に係る位置決め装置の他の例の側面図である。 図13は、第3実施形態に係る位置決め装置の他の例の側面図である。 図14は、第3実施形態に係る位置決め装置の他の例の側面図である。 図15は、図12Aの位置決め装置の境界検出処理を説明するための図である。 図16は、第3実施形態に係る位置決め装置の他の例の側面図である。 図17は、他の実施形態に係る位置決め装置の構成を示す図である。
 以下、本開示の実施の形態について、図面を参照しながら説明する。なお、以下に説明する実施の形態は、いずれも本発明の一具体例を示すものである。したがって、以下の実施の形態で示される、数値、形状、材料、構成要素、構成要素の配置位置および接続形態等は、一例であって本発明を限定する主旨ではない。よって、以下の実施の形態における構成要素のうち、本開示の最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 また、本明細書および図面において、X軸、Y軸およびZ軸は、三次元直交座標系の三軸を表している。X軸およびY軸は、互いに直交し、かつ、いずれもZ軸に直交する軸である。本実施の形態において、Z軸方向は、鉛直方向である。なお、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化する。
 (第1実施形態)
 まず、第1実施形態に係る処理装置100について、図1を用いて説明する。図1は、第1実施形態に係る処理装置100の構成を示す図である。
 図1に示すように、処理装置100は、ヘッド5と、ステージ6と、位置決め装置10とを備える。
 ヘッド5は、第1部材P1を保持する保持装置である。ヘッド5は、例えば、第1部材P1を吸着したり把持したりすることで第1部材P1を保持することができる。また、第1部材P1は、ねじで固定することでヘッド5に保持させても良い。ヘッド5は、Z軸方向に移動することができる。また、ヘッド5は、Z軸回りに回転することができる。したがって、図示しないが、処理装置100は、ヘッド5をZ軸方向に移動させたりZ軸回りに回転させたりすることができる機構を有する。また、ヘッド5は、X軸方向およびY軸方向に移動させることができる機構を有しても良い。
 ステージ6は、第2部材P2を支持する。第2部材P2は、ステージ6に保持される。例えば、第2部材P2は、ステージ6の上面に載置されることで、ステージ6に保持される。ステージ6は、X軸方向およびY軸方向に移動することができる。したがって、図示しないが、処理装置100は、ステージ6をX軸方向およびY軸方向に移動させることができる機構を有する。
 ヘッド5は、ステージ6に対して相対的にX軸方向、Y軸方向への移動およびZ軸回りの位置決め、Z軸方向への移動に合わせて動作ができれば良い。また、移動機構は、ヘッド5およびステージ6のどちらに設けても良いし、ヘッド5およびステージ6の各々に重複して設けても良い。
 位置決め装置10は、ヘッド5に保持された第1部材P1とステージ6に保持された第2部材P2との位置決めをするための位置決め機構である。位置決め装置10は、ステージ6と同様に、X軸方向およびY軸方向に移動することができる。したがって、図示しないが、処理装置100は、位置決め装置10をX軸方向およびY軸方向に移動させることができる機構を有する。
 本実施の形態における処理装置100は、インプリント装置である。例えば、処理装置100は、ナノオーダサイズの電極等の構造を形成するためのナノインプリント装置である。ここで、処理装置100をインプリント装置に適用したときの動作フローについて、図2を用いて説明する。図2は、第1実施形態に係る処理装置100をインプリント装置に適用したときの動作フローの一部の工程を示す図である。
 処理装置100がインプリント装置である場合、図2に示すように、第1部材P1は、凹凸構造を有するインプリント型(モールド)であり、第2部材P2は、インプリントされるワークである。第2部材P2は、例えば、シリコン基板(ウエハ)等の基板101と、基板101の上に配置された樹脂層102である。
 図2の(a)に示すように、ヘッド5に第1部材P1をセットするとともに、ステージ6に第2部材P2をセットする。第2部材P2をステージ6にセットする場合、例えば、基板101をステージ6に載置し、その後、基板101の上に樹脂材料を塗布して樹脂層102を形成する。
 次に、位置決め装置10を用いて第1部材P1と第2部材P2の水平位置補正を行った後に、図2の(b)に示すように、第1部材P1を保持したヘッド5を下方に移動させて、第1部材P1であるインプリント型を第2部材P2の樹脂層102に加圧する。具体的には、インプリント型の突起を第2部材P2の樹脂層102に押し付ける。
 その後、第1部材P1を第2部材P2に加圧した状態で樹脂層102を硬化させる。この場合、樹脂層102を構成する樹脂材料が熱硬化性樹脂である場合は、加熱することで樹脂層102を硬化させる。一方、樹脂層102を構成する樹脂材料が光硬化性樹脂である場合は、紫外線等の光を照射することで樹脂層102を硬化させる。
 次に、図2の(c)に示すように、第1部材P1を保持したヘッド5を上方に移動させて、第1部材P1であるインプリント型を第2部材P2から離す。これにより、樹脂層102にインプリント型の突起に対応した開口部が形成される。
 なお、樹脂層102の硬化は、第1部材P1を第2部材P2に加圧した状態で行う場合に限らず、第1部材P1を保持したヘッド5を上方に移動させて、第1部材P1であるインプリント型を第2部材P2から離した後に樹脂層102を硬化しても良い。
 図示しないが、その後、無電解めっきにより樹脂層102の開口部に充填するようにめっき膜を形成し、レジストである樹脂層102を除去することで、基板101の上に突起状のめっき電極が形成された基板を得ることができる。なお、この場合、めっき膜を形成するために、基板101には、樹脂層102の開口部に対応する箇所に予めシード層等の下地電極が形成されている。このようにして形成されためっき電極は、バンプ(例えばマイクロバンプ)として用いることができる。例えば、バンプ(めっき電極)を有する基板は、半導体チップ等のチップ部品とバンプ接合される。これにより、基板とチップ部品とがバンプ接合された電子部品を得ることができる。
 なお、第2部材P2の基板101がウエハ等で第1部材P1に対して大きい場合、図2の(a)~(c)の工程を、ウエハの複数の箇所に同一条件で繰り返して行ってもよい。
 以下、本実施の形態に係る処理装置100における位置決め装置10の詳細な構成について、図3を用いて説明する。図3は第1実施形態に係る位置決め装置10の側面図を示す。なお、以下の説明において、カメラ1の撮像方向(レンズ2の光軸方向)がY方向であり、上下方向がZ方向(第1方向)であり、Y方向およびZ方向と垂直をなす方向がX方向である。
 図3に示すように、第1実施形態に係る位置決め装置10は、カメラ1、レンズ2、プリズム3、プリズム保持部4、ヘッド5、ステージ6、モニタ7、演算装置8を備える。
 カメラ1は、レンズ2およびプリズム3を介して、ヘッド5に保持された第1部材P1と、ステージ6に保持された第2部材P2とを撮像する(詳しくは後述する)。カメラ1は、撮像したカメラ画像Aを、演算装置8に出力し、演算装置8は画像Aおよび演算結果をモニタ7に出力する。
 レンズ2は、光軸がカメラ1の撮像方向と一致するように取り付けられている。レンズ2は、ピント位置が若干ズレても位置の変化が小さいテレセントリック光学系であることが望ましいが、ピント位置へのワーク搬送精度が高い場合は、この限りではない。
 プリズム3は、レンズ2の光軸上(カメラ1の撮像方向)に配置されている。プリズム3には、境界線33を介して、第1反射面31および第2反射面32が形成されている。第1反射面31および第2反射面32は、互いのなす角度が、例えば、90°で形成されている。また、第1反射面31は、ヘッド5から入射した光を、レンズ2の光軸方向に反射させるように、Z軸に対して45°の角度をなすように形成されている。第2反射面32は、ステージ6から入射した光を、レンズ2の光軸方向に反射させるように、Z軸に対して45°の角度をなすように形成されている。なお、第1反射面31および第2反射面32の角度は、上記に例示した角度でなくてもよく、以下の構成を実現できれば、どのような角度であってもよい。
 例えば、レンズ2及びカメラ1を、プリズム3の境界線33を中心とするX軸まわりに回転する方向に、カメラ1側が+Z方向になる向きに角度φだけ回転させてもよい。この場合、プリズム3は、境界線33を中心に、同じX軸まわりにφ/2の角度で回転させればよい。このようにすることで、第1部材P1と第2部材P2との距離を近づけることが可能になり、後述する境界線33を撮像した際の「ぼけ」を抑えてより明瞭な画像を得ることができる上、位置合わせ後のヘッド5の移動量が小さくなるため、例えば熱膨張によってヘッド5の移動軸が傾いてしまっても、位置合わせにおけるその影響を抑えることができる。
 プリズム保持部4は、プリズム3を保持する。本実施形態では、プリズム3が、接着剤によりプリズム保持部4に接着されることで、プリズム保持部4がプリズム3を保持しているが、他の保持方法(例えば、プリズム3をプリズム保持部4に把持させるなど)によりプリズム3を保持してもよい。
 図3に示すように、レンズ2およびプリズム保持部4は、光学ユニットベース9に保持されている。なお、レンズ2と光学ユニットベース9との間にピントなど位置調整機構を入れてもよい。また、プリズム保持部4と光学ユニットベース9との間に位置の微調整機構を入れても良い。また本実施形態ではレンズ2およびプリズム保持部4は同一の光学ユニットベース9で固定されているが、レンズ2およびプリズム保持部4に対してそれぞれ光学ユニットベース9を設置しても良い。
 上述したように、ヘッド5には、第1部材P1が保持されており、ステージ6には、第2部材P2が保持されている。例えば、処理装置100がインプリント装置である場合、第1部材P1は、インプリント型であり、第2部材P2は、基板を含むワークである。第1部材P1および第2部材P2は、例えば、供給ヘッドなど(図示省略)によってピックアップされた後、ヘッド5およびステージ6にそれぞれ保持される。
 ここで、カメラ1から、レンズ2およびプリズム3の第1反射面31を介した、ヘッド5上の第1部材P1までの第1光路と、カメラ1から、レンズ2およびプリズム3の第2反射面32を介した、ステージ6上の第2部材P2までの第2光路とは、同一の光路長である。
 モニタ7は、カメラ1が撮像したカメラ画像Aを表示する。カメラ画像Aには、ヘッド5側の画像である第1画像A1と、ステージ6側の画像である第2画像A2が含まれている。図3に示すように、第1画像A1および第2画像A2は、境界A3を挟んで、上下方向に並んで表示される。境界A3は、プリズム3の境界線33に相当する画像である。プリズム3は、境界線33がレンズ2の光軸方向と一致するように配置されているため、境界A3は、カメラ画像Aの中央に位置している。
 演算装置8は、カメラ1から出力されたカメラ画像Aに基づいて、第1部材P1および第2部材P2の相対位置を算出し、以下の位置決め処理を実行する。
 なお、カメラ1、レンズ2、プリズム3、プリズム保持部4などを含む光学系(以下、単に「光学系」ということがある。)は、X方向およびY方向に移動可能である。また、ヘッド5およびステージ6は、X方向、Y方向および、Z軸を中心とした回転方向に移動可能である。
 レンズ2の焦点位置に第1部材P1および第2部材P2(以下、第1部材P1および第2部材P2を「ワーク」ということがある)を配置し、光軸上のレンズ2とワークの間にプリズム3を配置するので、得られる画像の境界A3にはボケが発生する。プリズム3の位置がレンズ2に近い場合、カメラ画像Aの境界A3の「ぼけ」が大きくなる為、境界A3の位置認識精度が低下する。後述する境界A3を基に第1部材P1と第2部材P2の相対位置を算出する本システムにおいては、境界A3の位置精度低下は第1部材P1と第2部材P2の位置決め精度の低下につながる。このため、本開示では、プリズム3は、第1および第2光路において、第1部材P1および第2部材P2のごく近くに配置される。具体的には、プリズム3は、プリズム3と第1部材P1および第2部材P2との距離が、プリズム3とレンズ2との距離よりも短くなるように配置されている。このようにすることで、境界A3の「ぼけ」を低減させる事ができる。また、第1部材P1と第2部材P2との相対位置を小さくすることができる。さらに、プリズム3とワークとを近づけることにより、プリズム3が熱歪などで微小角ズレたとしても、光軸ブレからくるワークの位置ズレの影響を最小化することができるため、最終的に補正後の各部材の移動量を小さくすることができ、位置決め補正の誤差を小さくすることができる。
 (位置決め装置の動作について)
 図4は第1実施形態に係る位置決め装置10の動作を説明するためのフローチャートである。
 まず、ワークが本位置決め装置にセットされる(ステップS1)。具体的には、図略の供給ヘッドにより、第1部材P1をヘッド5に保持させ、第2部材P2をステージ6に載置する。このとき、第1部材P1および第2部材P2の表面には、それぞれ、位置合わせ点が付されている。これらの位置合わせ点が互いに対向するように、第1部材P1および第2部材P2は、ヘッド5およびステージ6に保持および載置される。
 カメラ1は、第1部材P1および第2部材P2を撮像する(ステップS2)。具体的に、カメラ1、レンズ2、プリズム3、プリズム保持部4を移動させ、第1部材P1(ヘッド5)および第2部材P2(ステージ6)の間に、プリズム3を配置する。そして、カメラ1は、第1部材P1および第2部材P2を撮像したカメラ画像Aを、演算装置8に出力する。なお、カメラ1は、第1画像A1と第2画像A2とを別々に撮像してもよいし、同時に撮像してもよい。例えば、第1画像A1と第2画像A2とを、一度に撮像するとどちらかの画像が白くなってしまったり、黒くなってしまったりすることがある。第1画像A1と第2画像A2とで、照明輝度、シャッタースピード、カメラゲインや同軸光と斜光の割合など撮像条件が異なる場合は、カメラ1は、第1画像A1と第2画像A2とを2回に分けて撮像してもよい。
 演算装置8は、カメラ画像Aに含まれる第1画像A1および第2画像A2に基づいて、第1部材P1と第2部材P2との相対位置を求め、第1部材P1と第2部材P2との位置補正量を算出する(ステップS3)。具体的には、図5の処理を行う(詳しくは後述)。
 演算装置8は、算出した位置補正量に基づき、位置補正が必要か否かを判定する(ステップS4)。演算装置8は、位置補正量が所定値以上である場合、位置補正が必要と判定し(ステップS4のYES)ステップS3で算出した位置補正量に基づき、第1部材P1と第2部材P2との位置を補正(移動)する(ステップS5)。その後、ステップS2に戻る。
 一方、演算装置8は、位置補正量が所定値以下である場合、位置補正が不要と判定し(ステップS4のYES)、第1部材P1を第2部材P2に合わせる合わせ動作を行う(ステップS6)。具体的には、ステージ6に向けて、ヘッド5をZ方向に移動させ、第1部材P1を第2部材P2に合わせる。
 (位置補正量の算出について)
 図5は第1実施形態に係る位置補正量の算出処理を示すフローチャートである。図5は、ステップS3において、演算装置8が位置補正量を算出するために実行するものである。
 まず、演算装置8は、カメラ画像Aを取得する(ステップS11)と、第1画像A1から第1部材P1の第1特徴点M1を検出する(ステップS12)。また、演算装置8は、第2画像A2から第2部材P2の第2特徴点M2を検出する(ステップS13)。これらの特徴点は、例えば、対応する部材の特徴となる部分(角部など)や、部材の表面に付されたマークなどである。
 図6の例では、演算装置8は、第1部材P1の特徴点が角部に設定されているため、角部を構成する2直線の交点を第1特徴点M1として検出している。また、演算装置8は、第2部材P2の特徴点が丸形状のマークに設定されているため、丸の中心部を第2特徴点M2として検出している。
 本実施形態では、演算装置8は、2つの第1特徴点M1の中心点を第1部材P1の基準位置N1として検出し、2つの第2特徴点M2の中心点を第2部材P2の基準位置N2として検出する。さらに、演算装置8は、2つの第1特徴点M1を結ぶ直線である第1角度基準線と、2つの第2特徴点M2を結ぶ直線である第2角度基準線との相対角度を求める。基準位置N1,N2および第1角度基準線と第2角度基準線との相対角度に基づいて、演算装置8は、位置補正量を算出する(ステップS14)。
 図7は第1実施形態に係る位置補正量の算出処理を説明するための図である。図7の(a)~(c)のカメラ画像Aには、それぞれ、第1部材P1および第2部材P2が表示されている。
 図3に示すように、カメラ画像Aには、第1画像A1と第2画像A2とが、X方向に延びる境界A3を介して、上下に並んで表示される。ここで、各画像と実際の座標系の関係性を考慮すると、第1画像A1および第2画像A2において、X方向は一致し、Y方向は反転している。すなわち、境界A3を基準として、第2画像A2をY方向に折り返すことにより、第1画像A2と第2画像A2との座標を実際の座標系と一致させることができる。なお、図7の(a)~(c)において、P2’は、境界A3を基準として、第2画像A2をY方向に折り返したときの第2部材P2の位置を示している。
 例えば、図7の(a)では、境界A3を基準として、第2画像A2をY方向に折り返した場合、第1部材P1と第2部材P2との位置が一致するため、位置補正量は0(補正なし)となる。
 また、図7の(b)では、境界A3を基準として、第2画像A2をY方向に折り返した場合、第1部材P1が第2部材P2よりも+Y方向に位置するため、第1部材P1が-Y方向に移動するように位置補正量が求められる。
 また、図7の(c)では、境界A3を基準として、第2画像A2をY方向に折り返した場合、第1部材P1が第2部材P2よりも-Y方向に位置するため、第1部材P1が+Y方向に移動するように位置補正量が求められる。
 以上のように位置補正量が求められた後に、ステップS4以降が実行される。
 以上に説明したように、プリズム3がヘッド5とステージ6との間に配置されたとき、第1反射面31はヘッド5側から入射した光をカメラ1側へ反射させ、第2反射面32はステージ6側から入射した光をカメラ1側へ反射させる。カメラ1は、プリズム3から入射した光に基づいて、ヘッド5側の画像である第1画像A1、および、ステージ6側の画像である第2画像A2を含むカメラ画像Aを撮像する。演算装置8は、カメラ画像Aに基づいて、第1部材P1および第2部材P2の位置を求める。これにより、1つのプリズムおよび1つのカメラで、第1部材P1および第2部材P2の位置を認識することができるため、光学系を構成する部品点数を削減することができる。したがって、光学系を構成する部品の熱膨張の発生を抑止することができるため、位置決め精度の低下を抑止することができる。
 なお、第1実施形態において、第1部材P1(または第2部材P2)のサイズが大きく、第1画像A1(または第2画像A2)に、第1部材P1(または第2部材P2)が入りきらない場合がある。この場合、カメラ1などの光学系をX方向およびY方向に適宜移動させ、複数の第1画像A1(または複数の第2画像A2)を生成し、これらの画像に基づいて、演算装置8は、第1特徴点M1(または第2特徴点M2)を検出してもよい。
 (第2実施形態)
 図8は第2実施形態に係る境界位置の補正処理を示すフローチャートである。図8に示す動作は、図4の動作を行う前に、演算装置8が実行するものである。第1実施形態では、カメラ1の上方向がZ方向と一致するように設置されており、プリズム3の2つの反射面(第1反射面31および第2反射面32)の境界線33がレンズ2の光軸中心上かつX軸に平行になるように配置されているため、カメラ画像Aにおける境界A3(プリズム3の境界線33)がカメラ画像Aの上下方向中央に、X方向と一致するように表示される。(図6の各図参照)。しかしながら、光学系(カメラ1やレンズ2など)を構成する部品の熱膨張により、境界A3が図6の位置(以下、「境界A3の基準位置」ともいう。)からズレて表示される場合がある。ズレた境界A3を基準に、図4および図5の処理を行うと、第1部材P1および第2部材P2の位置決め(補正量の算出)を正確に行うことができなくなる。そこで、第2実施形態では、図8の境界位置の補正処理を実行することにより、境界A3のズレを補正することとした。なお、図9の(a)~(c)では、位置補正前の境界をA3、位置補正後の境界をA3’として示している。
 まず、演算装置8は、カメラ画像Aから境界A3’を検出する(ステップS21)。演算装置8は、例えば、第1画像A1の下辺および第2画像A2の上辺を検出し、その中間位置を境界A3’とする。この場合、演算装置8は、第1画像A1および第2画像A2を別々に撮像し、第1画像A1の下辺および第2画像A2の上辺を検出してもよい。また、演算装置8は、カメラ画像Aにおいて、ワークの背景画像からプリズム3の境界線33の領域(ボケが発生している領域)の上辺および下辺を検出し、その中間位置を境界A3’としてもよい。
 演算装置8は、境界A3を補正する処理が必要か否かを判定する(ステップS22)。具体的には、演算装置8は、境界A3’がカメラ画像Aにおける境界A3の基準位置と一致していない場合、境界A3を補正する処理が必要と判定する。
 演算装置8は、境界A3を補正する処理が不要と判定した場合(ステップS22のNO)、処理を終了する。演算装置8は、境界A3を補正する処理が必要と判定した場合(ステップS22のYES)、境界位置補正を行う(ステップS23)。
 図9の(a)の例では、境界A3’がカメラ画像Aにおける境界A3の基準位置と一致しているため、境界A3の位置補正が不要であると判定する(ステップS22のNO)。この場合、演算装置8は、境界A3の位置補正処理を行わずに、図2の処理を実行する。
 図9の(b)の例では、境界A3’が、境界A3の基準位置と比較すると、+Y方向にズレている。例えば、レンズ2の光軸がZ方向にズレたことで、図9(b)のようなカメラ画像A1となる。
 図9の(c)の例では、境界A3’が、境界A3の基準位置と比較すると、カメラ画像A1の中心を基準として回転方向にズレている。例えば、レンズ2の光軸がY軸を中心として回転していることにより、図9の(c)のようなカメラ画像A1となる。
 図9の(b),(c)では、境界A3’がカメラ画像Aにおける境界A3の基準位置と一致していないため、演算装置8は、境界A3の位置補正が必要と判定する(ステップS22のYes)。そして、演算装置8は、境界A3’の位置をカメラ画像Aに表示された境界A3の位置に設定する位置補正処理を行う。これにより、境界A3’の位置を基準として、その後に行われるステップS14の位置補正量の算出(境界A3を基準として、第2画像A2をY方向に折り返すことにより、第1画像A2と第2画像A2との座標を実際の座標系と一致させる処理など)などの処理が行われるため、カメラ1やレンズ2が光学系を構成する部品の熱膨張より、境界A3にズレが生じたとしても、ワークの高精度な位置補正を行うことができる。
 なお、ステップS14における位置補正量の算出には、境界A3の位置が大きく影響する。また、複数の第1部材P1を第2部材P2に合わせる場合、複数回の合わせ動作中に、光学系を構成する部品の熱膨張により、境界A3の位置が変化するおそれがある。このため、図8の処理は、所定回数の合わせ動作ごとや所定期間ごとに、行われることが好ましい。この場合、図8の処理を行う頻度は、位置決め装置の温度変化や、境界A3の位置ズレのしやすさ、完成品の製造速度などによって決定される。図8の処理は、境界A3’を高精度に検出可能である方法が望ましいが、高頻度で補正が必要な場合、簡易的な方法と併用するのが実用的である。また、長時間停止していた後の動作再開時など合わせ動作直前にも図8の動作を行うことが望ましい。
 (第3実施形態)
 図10は第3実施形態に係る位置決め装置の側面図を示す。図10の位置決め装置は、図1とほぼ同様に構成されるが、同軸照明11と、斜光照明12(第1照明)とをさらに備える。
 同軸照明11は、プリズム3に対してY方向に光を照射することによって、第1部材P1および第2部材P2に対してZ方向から光を照射するものである。斜光照明12は、第1部材P1および第2部材P2に対して、斜め方向から光を照射するものである。同軸照明11および斜光照明12により、より鮮明なカメラ画像Aを撮像することができる。
 ここで、プリズム3は、第1反射面31および第2反射面32の間に、第3反射面34を有する。第3反射面34は、Z方向に所定幅を有し、X方向に延びる平面であり、境界線33に代えてプリズム3に形成されているものである。この第3反射面34をプリズム3に形成することにより、カメラ画像Aに、境界A3がより明確に表示される。例えば、第1画像A1および第2画像A2に表示される物体がない状態で、同軸照明11を点灯させてカメラ1の撮像を行う。こうすることにより、図10に示すように、第1画像A1および第2画像A2は黒い画像となり、その間に境界A3が白線として表示される。この白線を境界A3とすることにより、図8の処理をより確実に行うことができる。
 なお、第3反射面34のZ方向における幅は、第3反射面34に反射した光が、カメラ画像A1に1画素以上、画像全体では10%未満となることが好ましい。また、境界A3が検出できれば、第3反射面34のZ方向における幅が1画素未満となっていてもよい。
 (変形例その1)
 図11は第3実施形態に係るプリズムの他の例を説明するための図である。具体的に、図11の(a)はプリズム3の側面図を示し、図11の(b)はプリズム3をレンズ2側から見た図を示す。
 この変形例では、プリズム3にマーク35(第1マーク)が付されている。具体的には、第1反射面31および第2反射面32に、それぞれ、2つのマーク35が付されている。各マーク35は、境界線33を基準として、Z方向に互いに等間隔になるように配置されている。
 図11の(c)は、第1画像A1および第2画像A2に表示される物体がない状態で、プリズム3を撮像したときのカメラ画像Aである。図11の(c)に示すように、カメラ画像Aに、マーク35が表示されるため、境界A3が検出しにくい場合であっても、図面上下方向に並んだ2つのマーク35の中央に境界A3が存在することを推定できるため、境界A3を検出することができる。
 なお、マーク35の位置や種類、個数は、図11の例に限られず、適宜選択することができる。また、マーク35は、カメラ画像Aに低輝度で表示される低反射部材であってもよいし、カメラ画像Aに高輝度で表示される高反射部材であってもよい。
 (変形例その2)
 図12Aは第3実施形態に係る位置決め装置の他の例の側面図を示す。
 この変形例では、カメラ画像Aの境界A3(境界線33)を検出するために、ステージ6側に反射板36が配置されている。例えば、第1画像A1および第2画像A2に表示される物体がない状態で、カメラ1がカメラ画像Aを撮像した場合、ヘッド5側には物体がないため、第1画像A1には黒い画像が表示される。これに対して、ステージ6側には反射板36が配置されているため、第2画像には白い画像が表示される。このときの黒い画像(第1画像A1)と白い画像(第2画像A2)との境界が、境界線33に相当する境界A3であると推定することができるため、境界A3を検出することができる。
 このとき、図12Aに示すように、プリズム3の稜線(境界線33)の位置から反射板36の反射面までの距離L1と、反射板36の反射面から認識対象物であるワークの撮像面(図12Aでは第2部材P2の表面)までの距離L2とを、略同一にすることが望ましい。つまり、反射板36は、プリズム3の第1反射面と第2反射面との境界線33と認識対象物の位置とから略同一距離となる中間位置に配置されているとよい。このようにすることにより、得られる画像のフォーカスがプリズム3の稜線(境界線33)に合うこととなり、より明瞭に境界A3を検出することができる。なお、距離L1と距離L2との一致度については、レンズ2の被写界深度内であることが望ましい。
 なお、反射板36に代えて、プリズム3に対して光を照射する照明(第2光源)を設置してもよい。また、反射板36をヘッド5側に配置してもよい。
 また、プリズム3の上下方向にそれぞれ照明(第2光源)を設置してもよい。この場合、上述したように、演算装置8は、第1画像A1の下辺および第2画像A2の上辺を検出し、その中間位置を境界A3とする。なお、演算装置8は、第1画像A1および第2画像A2を別々に撮像し、第1画像A1の下辺および第2画像A2の上辺を検出し、その中間位置を境界A3としてもよい。
 また、反射板36は、プリズム3のステージ側(図12Aの下側)ではなく、プリズム3のヘッド側(図12Aの上側)に配置されていてもよいし、図12Bに示すように、プリズム3のステージ6側およびヘッド5側の両方に配置されていてもよい。つまり、反射板36は、プリズム3のヘッド側またはステージ側の少なくとも一方に配置されていればよい。
 図12Bにおいて、反射板36は、プリズム3の上下方向のそれぞれに設置されている。この場合、反射板36にごくわずかな傾斜角θを持たせるような姿勢で反射板36を傾斜させるとよい。これにより、境界線A3を明瞭に検出することができる。また、傾斜角θを調整することで、検出する境界線A3の幅を調整することも可能である。この場合も、距離L1と距離L2とは等しいことが望ましい。なお、反射板36の傾斜方向(傾斜角θの角度方向)は、反射板36のプリズム3側(反カメラ側)の部分がプリズム3側に近くなるような方向であるとよい。つまり、反射板36は、反射板36におけるカメラ1側の部分がプリズム3から遠ざかる方向に傾斜しているとよい。また、反射板36の傾斜角θは、0.05~0.1deg程度であるとよい。このように反射板36をわずかに傾けることで、より明瞭に境界線A3を検出することができる。ただし、反射板36の傾斜方向および傾斜角は、視野サイズなどによるため、この限りではない。また、上下いずれか一方のみに反射板36を配置した場合に、例えば同軸照明の光量が強くなった場合は、境界線A3は同軸照明の方が膨張する形で検出される。しかし、図12Bのように、上下の両方に反射板36を配置することで、例えば、同軸照明の光量が変化したとしても、検出される線幅が変わるだけであるので、最終的に算出される境界線A3(検出された線の中心線)の位置は変わらない。この為、より照明による外乱をうけにくく、高精度な検出が可能である。
 (変形例その3)
 図13は第3実施形態に係る位置決め装置の他の例の側面図を示す。
 この変形例では、カメラ画像Aの境界A3(境界線33)を検出するために、同軸確認治具37(第1同軸確認治具)が配置されている。同軸確認治具37は、Z方向にプリズム3を挟むように配置される。また、同軸確認治具37は、X方向およびY方向に、同じ位置に配置されたマーク371(第2マーク)が付されている。
 図13のように、同軸確認治具37を配置した状態で、カメラ1が撮像した場合、カメラ画像Aに、2つのマーク371が表示される。2つのマーク371は、同軸確認治具37において、X方向およびY方向に同じ位置に配置されているため、カメラ画像Aにおいて、マーク371同士の中央に境界A3が存在すると推定することができ、境界A3を検出することができる。
 (変形例その4)
 図14は第3実施形態に係る位置決め装置の他の例の側面図を示す。
 この変形例では、カメラ画像Aの境界A3(境界線33)を検出するために、同軸確認治具38(第2同軸確認治具)が配置されている。同軸確認治具38は、ヘッド5側に配置される。また、同軸確認治具38は、X方向に並んで配置された2つのマーク381(第3マーク)が付されている。
 カメラ画像Aの境界A3(境界線33)を検出するためには、まず、予め境界A3と、2つのマーク381とが表示されたカメラ画像Aを撮像し、境界A3および2つのマーク381の初期位置を取得しておく。2つのマーク381の初期位置と、その後に撮像したマーク381の位置とを比較することにより、境界A3の位置を補正することができる。具体的には、境界A3および2つのマーク381の初期位置の相対距離(図15では、距離Lm)を求めておき、その後に撮像した2つのマーク381を結ぶ直線から、当該直線の垂直方向に距離Lmをオフセットした位置に境界A3が存在すると推定する。なお、図15の(a)~(c)では、位置補正前の境界をA3、位置補正後の境界をA3’として示している。
 例えば、レンズ2の光軸が、+X方向にズレた場合、2つのマーク381は、第1画像A1において+X方向にズレた位置に表示される(図15の(a)参照)。この場合、2つのマーク381を結ぶ直線から、当該直線の-Y方向に距離Lmをオフセットした位置に境界A3’が存在すると推定される。
 また、レンズ2の光軸が、+Z方向にズレた場合、2つのマーク381は、第1画像A1において+Z方向にズレた位置に表示される(図15の(b)参照)。この場合、2つのマーク381を結ぶ直線から、当該直線の-Z方向に距離Lmをオフセットした位置に境界A3’が存在すると推定される。
 また、レンズ2の光軸が、Y軸を中心に回転方向にズレた場合、2つのマーク381は、第1画像A1において図面中央を中心として回転方向にズレた位置に表示される(図15の(c)参照)。この場合、2つのマーク381を結ぶ直線から、当該直線の垂直方向に距離Lmをオフセットした位置に境界A3’が存在すると推定される。
 以上のような処理により、境界A3を検出することができる。
 なお、プリズム3自体が回転変形した場合であっても、本変形例と他の実施形態(および他の変形例)における境界A3の検出方法とを組み合わせることにより、境界A3の検出精度を向上させることができる。
 (変形例その5)
 図16は第3実施形態に係る位置決め装置の他の例の側面図を示す。
 この変形例では、カメラ画像Aの境界A3(境界線33)を検出するために、ヘッド5にガラス治具39が保持されている(図16の(a)参照)。
 カメラ画像Aの境界A3(境界線33)を検出するためには、まず、ヘッド5にガラス治具39を保持させた状態で、第1画像A1を撮像する。そして、ヘッド5をZ方向に移動させ、ガラス治具39をステージ6に載置した状態(図16の(b)参照)で、第2画像A2を撮像する。このときの第1画像A1および第2画像A2に表示されたガラス治具39の中央位置に、境界A3が存在する推定することができるため、境界A3を検出することができる。
 (その他の実施形態)
 以上のように、本出願において開示する技術の例示として、実施形態について説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。
 なお、上記各実施形態において、合わせ動作や境界A3を検出する際に、ヘッド5がステージ6に向かって、Z方向に移動することがある。この場合、ヘッド5がプリズム3と衝突しないように、光学系(カメラ1、レンズ2、プリズム3、プリズム保持部4など)がY方向またはX方向に移動(前進および後退)する。このとき、光学系全体を移動させてもよいし、プリズム3およびプリズム保持部4のみが後退してもよい。
 また、上記各実施形態において、複数の光学系が備えられてもよい。図17の(a)は位置決め装置の平面図であり、図17の(b)は位置決め装置の側面図である。図17に示すように、カメラ1、レンズ2、プリズム3、プリズム保持部4などが、それぞれ2つずつ備えられている。上部のカメラ1は、反射プリズム13、ハーフミラー14、反射プリズム15およびプリズム3を介して、第1部材P1および第2部材P2を撮像している。下部のカメラ1は、ハーフミラー14、反射プリズム15およびプリズム3を介して、第1部材P1および第2部材P2を撮像している。この構成では、各カメラ1がX方向に異なる位置のカメラ画像Aを撮像する。これにより、1回の撮像により、ワークの複数箇所を撮像することができるため、製造効率を向上させることができる。
 また、上記各実施の形態において、位置決め装置10を備える処理装置100は、インプリント装置であったが、これに限らない。例えば、処理装置100は、インプリント装置以外の加工装置や製造装置等、部材同士の位置合わせが必要な各種装置や設備に適用してもよい。
 また、上記各実施の形態において、インプリント装置である処理装置100は、基板にバンプを作製するために用いたが、これに限らない。インプリント装置である処理装置100は、再配線層を作製するために用いてもよいし、液晶表示装置等における導光板や反射防止膜等の光学部材、磁気ディスク、マイクロレンズアレイ、光導波路等の光学部品、太陽電池、燃料電池部材、バイオデバイス、又は、半導体デバイスを作製するために用いてもよい。
 なお、その他、上記各実施の形態に対して当業者が思い付く各種変形を施して得られる形態や、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素および機能を任意に組み合わせることで実現される形態も本開示に含まれる。また、本願出願時の請求の範囲に記載された複数の請求項の中から技術的に矛盾しない範囲で2つ以上の請求項を任意に組み合わせたものも本開示に含まれる。例えば、本願出願時の請求の範囲に記載された引用形式請求項を、技術的に矛盾しない範囲で上位請求項の全てを引用するようにマルチクレーム又はマルチマルチクレームとしたときに、そのマルチクレーム又はマルチマルチクレームに含まれる全ての請求項の組み合わせも本開示に含まれる。
 本開示の処理装置および処理方法等は、部材同士の位置決めをする際に用いることができる。
 1 カメラ
 2 レンズ
 3 プリズム
 4 プリズム保持部
 5 ヘッド
 6 ステージ
 8 演算装置
 10 位置決め装置
 11 同軸照明(第1照明)
 12 斜光照明(第1照明)
 31 第1反射面
 32 第2反射面
 33 境界線
 34 第3反射面
 35 マーク(第1マーク)
 36 反射板
 37 同軸確認治具(第1同軸確認治具)
 371 マーク(第2マーク)
 38 同軸確認治具(第2同軸確認治具)
 381 マーク(第3マーク)
 100 処理装置
 A カメラ画像
 A1 第1画像
 A2 第2画像
 A 境界線
 P1 第1部材
 P2 第2部材

Claims (22)

  1.  ヘッドと、
     ステージと、
     前記ヘッドに保持された第1部材を、前記ステージに保持された第2部材に合わせるときに、当該第1部材および当該第2部材の位置決めを行う位置決め装置と、
     第1反射面と第2反射面とを有するプリズムと、
     カメラと、
     演算装置と、を備え、
     前記プリズムが前記ヘッドおよび前記ステージとの間に配置された場合、前記第1反射面は前記ヘッド側から入射した光を前記カメラ側へ反射させ、前記第2反射面は前記ステージ側から入射した光を前記カメラ側へ反射させ、
     前記カメラは、前記プリズムから入射した光に基づいて、前記ヘッド側の画像である第1画像、および、前記ステージ側の画像である第2画像を含むカメラ画像を撮像し、
     前記演算装置は、前記カメラ画像に基づいて、前記第1部材および前記第2部材の位置を求める、処理装置。
  2.  請求項1に記載の処理装置において、
     前記ヘッドに保持された前記第1部材および前記ステージに保持された前記第2部材の少なくとも一つに対して、光を照射する第1光源をさらに備える、処理装置。
  3.  請求項1に記載の処理装置において、
     前記カメラおよび前記プリズムの間に配置されるレンズをさらに備え前記プリズムは、当該プリズムと前記第1部材および前記第2部材との距離が当該プリズムと前記レンズとの距離よりも短くなるように配置される、処理装置。
  4.  請求項1~3のいずれか1項に記載の処理装置において、
     複数の前記カメラを備え、
     前記複数のカメラは、前記ヘッドおよび前記ステージにおいて、互いに異なる位置の前記カメラ画像を撮像するように配置されている、処理装置。
  5.  請求項1~3のいずれか1項に記載の処理装置において、
     前記プリズムには、前記第1反射面と前記第2反射面との間に所定幅を有する第3反射面が形成されており、
     前記カメラ画像には、前記第1画像と前記第2画像との間に、前記第3反射面に対応する境界が表示されており、
     前記演算装置は、前記カメラ画像の前記境界を基準として、前記第1部材および前記第2部材の位置を求める、処理装置。
  6.  請求項1~3のいずれか1項に記載の処理装置において、
     前記プリズムの前記ヘッド側または前記ステージ側の少なくとも一方に、前記プリズム側に光を反射する反射板が配置されており、
     前記反射板は、前記プリズムの前記第1反射面と前記第2反射面との境界線と認識対象物の位置とから略同一距離となる中間位置に配置されている、処理装置。
  7.  請求項1~3のいずれか1項に記載の処理装置において、
     前記プリズムの前記ヘッド側および前記ステージ側の両方に、前記プリズム側に光を反射する反射板が配置されており、
     前記反射板は、前記プリズムの前記第1反射面と前記第2反射面との境界線と認識対象物の位置とから略同一距離となる中間位置に配置されており、
     前記反射板は、前記カメラ側の部分が前記プリズムから遠ざかる方向に傾斜している、処理装置。
  8.  前記処理装置は、インプリント装置である、請求項1~3のいずれか1項に記載の処理装置。
  9.  第1部材を第2部材に合わせるときに、当該第1部材および当該第2部材の位置決めを行う位置決め工程と、
     前記第1部材を前記第2部材に合わせる工程と、を含み、
     前記位置決め工程は、
     ヘッドが前記第1部材を保持するステップと、
     ステージに前記第2部材を保持させるステップと、
     プリズムが前記ヘッドおよび前記ステージとの間に配置されるステップと、
     前記プリズムの第1反射面が前記ヘッド側から入射した光をカメラ側へ反射し、前記プリズムの第2反射面が前記ステージ側から入射した光を前記カメラ側へ反射するステップと、
     前記カメラが、前記プリズムから入射した光に基づいて、前記ヘッド側の画像である第1画像、および、前記ステージ側の画像である第2画像を含むカメラ画像を撮像するステップと、
     演算装置が、前記カメラ画像に基づいて、前記第1部材および前記第2部材の位置を求めるステップと、を備える処理方法。
  10.  請求項9に記載の処理方法において、
     前記演算装置は、前記第1画像および前記第2画像が同一タイミングまたは異なるタイミングで撮像された前記カメラ画像に基づいて、前記第1部材および前記第2部材の位置を求める、処理方法。
  11.  請求項9に記載の処理方法において、
     前記カメラは、互いに位置の異なる複数の前記カメラ画像を撮像し、
     前記演算装置は、前記複数のカメラ画像に基づいて、前記第1部材および前記第2部材の位置を求める、処理方法。
  12.  請求項9~11のいずれか1項に記載の処理方法において、
     前記演算装置が、求めた前記第1部材および前記第2部材の位置に基づいて、前記第1部材および前記第2部材の位置補正量を算出するステップと、
     前記ヘッドおよび前記ステージを、算出した前記位置補正量に基づいて、移動させるステップと、
     前記カメラが、前記カメラ画像を再度撮像するステップと、
     前記演算装置が、前記カメラ画像に基づいて、前記第1部材および前記第2部材の位置を再度求め、前記第1部材および前記第2部材の前記位置補正量を再度算出するステップと、
     再度の前記位置補正量が所定値内である場合に前記第1部材を前記第2部材に合わせる動作を行うステップと、をさらに備える、処理方法。
  13.  請求項9~11のいずれか1項に記載の処理方法において、
     前記プリズムには、前記第1反射面と前記第2反射面との間に境界線が形成されており、
     前記カメラ画像には、前記第1画像と前記第2画像との間に、前記境界線に対応する境界が表示されており、
     前記演算装置は、前記カメラ画像の前記境界を基準として、前記第1部材および前記第2部材の位置を求める、処理方法。
  14.  請求項13に記載の処理方法において、
     前記境界線は、前記第1反射面および前記第2反射面との間に、所定幅を有する第3反射面として形成されている、処理方法。
  15.  請求項13に記載の処理方法において、
     前記プリズムは、前記第1反射面および前記第2反射面の対応する位置にそれぞれ第1マークが付されており、
     前記演算装置は、前記カメラ画像に表示された前記第1マークに基づいて、前記境界を特定する、処理方法。
  16.  請求項13に記載の処理方法において、
     前記プリズムの前記ヘッド側および前記ステージ側の少なくとも一方に第2光源を配置し、前記第2光源により前記プリズムに対して光を照射するステップをさらに備える、処理方法。
  17.  請求項13に記載の処理方法において、
     前記プリズムの前記ヘッド側または前記ステージ側の少なくとも一方に反射板を配置し、前記反射板により入射した光を前記プリズムへ反射させるステップをさらに備える、処理方法。
  18.  請求項17に記載の処理方法において、
     前記反射板は、前記プリズムの前記ヘッド側および前記ステージ側の両方に配置されており、
     前記反射板を前記カメラ側の部分が前記プリズムから遠ざかる方向に傾斜させる、処理方法。
  19.  請求項13に記載の処理方法において、
     前記第1部材を前記第2部材に合わせる際に前記ヘッドが前記ステージに向かって移動する第1方向に並ぶように付された、2つの第2マークを有する第1同軸確認治具を、2つの第1マークが前記プリズムを挟むように配置するステップと、
     前記演算装置は、前記2つの第2マークが撮像された前記カメラ画像に基づいて、前記境界の位置を特定するステップをさらに備える、処理方法。
  20.  請求項13に記載の処理方法において、
     第3マークが付された第2同軸確認治具を、前記プリズムの前記ヘッド側および前記ステージ側のいずれか一方に配置し、前記第3マークの初期位置を示す前記カメラ画像である第1カメラ画像を撮像するステップと、
     前記第1カメラ画像を撮像した後に、前記第2同軸確認治具を、前記第1カメラ画像を撮像した位置と同一の位置に配置し、再度前記カメラ画像を撮像するステップと、
     前記演算装置が、前記第1カメラ画像と、再度撮像された前記カメラ画像とに表示された前記第3マークの位置を比較して、前記境界の位置を特定するステップとをさらに備える、処理方法。
  21.  請求項13に記載の処理方法において、
     前記ヘッドが、治具部品を保持するステップと、
     前記カメラが、前記ヘッドに保持された状態の前記治具部品を示す第2カメラ画像を撮像するステップと、
     前記ステージに、前記治具部品を載置するステップと、
     前記カメラが、前記ステージに保持された状態の前記治具部品を示す第3カメラ画像を撮像するステップと、
     前記演算装置が、前記第2カメラ画像と前記第3カメラ画像とに表示された前記治具部品の位置を比較して、前記境界の位置を特定するステップとをさらに備える、処理方法。
  22.  前記処理方法は、電子部品の製造方法である、
     請求項9~11のいずれか1項に記載の処理方法。
PCT/JP2024/011091 2023-04-28 2024-03-21 処理装置および処理方法 WO2024224891A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023-075313 2023-04-28
JP2023075313 2023-04-28

Publications (1)

Publication Number Publication Date
WO2024224891A1 true WO2024224891A1 (ja) 2024-10-31

Family

ID=93256139

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/011091 WO2024224891A1 (ja) 2023-04-28 2024-03-21 処理装置および処理方法

Country Status (1)

Country Link
WO (1) WO2024224891A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001176934A (ja) * 1999-12-21 2001-06-29 Hitachi Ltd 半導体装置の製造方法
JP2002222751A (ja) * 2001-01-25 2002-08-09 Nitto Kogaku Kk アライメント装置および組立て装置
JP2004146528A (ja) * 2002-10-23 2004-05-20 Renesas Technology Corp 半導体装置の製造方法
JP2005019950A (ja) * 2003-06-05 2005-01-20 Shinkawa Ltd ボンディング装置
JP2021048191A (ja) * 2019-09-17 2021-03-25 キヤノン株式会社 インプリント装置、および物品の製造方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001176934A (ja) * 1999-12-21 2001-06-29 Hitachi Ltd 半導体装置の製造方法
JP2002222751A (ja) * 2001-01-25 2002-08-09 Nitto Kogaku Kk アライメント装置および組立て装置
JP2004146528A (ja) * 2002-10-23 2004-05-20 Renesas Technology Corp 半導体装置の製造方法
JP2005019950A (ja) * 2003-06-05 2005-01-20 Shinkawa Ltd ボンディング装置
JP2021048191A (ja) * 2019-09-17 2021-03-25 キヤノン株式会社 インプリント装置、および物品の製造方法

Similar Documents

Publication Publication Date Title
CN108598032B (zh) 一种晶圆接合对准系统及对准方法
JP5354382B2 (ja) 基板貼り合わせ装置及び基板貼り合わせ方法、並びに積層半導体装置の製造方法
JP5862616B2 (ja) 光配向用偏光光照射装置及び光配向用偏光光照射方法
JP6637752B2 (ja) 物品組み立て装置、部品組み立て方法
JP3757430B2 (ja) 基板の位置決め装置及び露光装置
KR102132094B1 (ko) 전자 부품 실장 장치 및 전자 부품 실장 방법
JP2015130384A (ja) インプリント装置、インプリント方法及び物品の製造方法
WO2019076159A1 (zh) 光学模组组装设备及方法
WO2019076160A1 (zh) 光学模组组装设备及方法
US20150292867A1 (en) Apparatus for detecting position of image pickup element
JP7071207B2 (ja) 位置検出装置、位置検出方法、製造システム、製造方法、制御プログラム、および記録媒体
WO2024224891A1 (ja) 処理装置および処理方法
US11460713B2 (en) System and method for aligning multiple lens elements
JPH06232027A (ja) 投影露光装置
WO2024219153A1 (ja) 位置決め装置、実装装置、処理装置、位置決め方法、電子部品の製造方法および処理方法
CN113115517B (zh) 一种基于机器视觉的套准方法
WO2023079798A1 (ja) 位置決め装置、実装装置、位置決め方法および電子部品の製造方法
JP2008218539A (ja) 電子部品搭載装置における基板認識用のカメラの取付方法
JP2003249797A (ja) 実装装置および実装装置におけるアライメント方法
JP3795024B2 (ja) 接合方法および装置
US9007567B2 (en) Method of aligning a wafer stage and apparatus for performing the same
WO2011096239A1 (ja) 検出方法および検出装置
WO2024135537A1 (ja) 位置決め装置および位置決め方法
CN112804826B (zh) 一种基于机器视觉的套准装置
WO2024014077A1 (ja) 位置決め装置、実装装置、位置決め方法および実装方法